Teil & Autonomes Autofahren eine Bedrohung der allgemeinen Verkehrssicherheit
Ich mache mir Gedanken und Zukunftssorgen um z.T. selbstfahrende Autos, die sich als verkehrsgefährdend betrachten lassen.
Ich fand u.a. einen bezeichnenden Satz von Manuel Perez Prada: „ Wer Menschen immer mehr Aufgaben beim Fahren abnimmt, der schwächt diese Schwachstelle noch mehr, denn die Aufmerksamkeit sinkt gegen Null (sein Hinweis: "Idiotensicherheit schafft Idioten"😉.
Ferner in dem Artikel über die neuste S-Kl.-Daimler „sich selbst durch den Verkehr zu lenken“ werfen sich mir Fragen auf.
Ist "Teilautonomes Fahren", vorerst die Hände bereits für kurze Zeit vom Lenkrad nehmen zu können, überhaupt legal ?
Wird also ohne Zulassung „illegalerweise“ nicht bereits erstmalig eine Technik bereitgestellt (glaube, TESLA bietet dieses als update gegen Aufpreis auch bereits an), die nicht auch verhängnisvolle Folgen für beteiligte Verkehrsteilnehmer haben kann ?
Das Daimler-Fahrzeug soll bei „Unklarheiten“ bereits eine "Notbremsung" selbstätig vornehmen, sofern der Fahrzeug-Lenker die Hände bei Warnsignalen nicht zurück ans Lenkrad führt. Verwirrend jedoch wird davon gesprochen, dass das Auto lediglich Sekunden ohne Lenkradberührung fahren würde und andererseits soll der Fahrer emails schreiben können, die sicherlich nicht sekundenschnell gemacht sein können.
Also, wenn im fließenden Verkehr ein PKW ( S-Kl. Daimler, TESLA) aus unersichtlichem Grund bremst, dann halte ich das für die kurz nachfolgenden PKW`S für unakzeptabel. Denn, wenn jemand während des Schreibens von Briefen den Verkehrsablauf gar nicht verfolgt hat, dann wird er beim Erscheinen eines Auto-Warnsignals den Verkehrsumstand binnen Millisekunden auch nicht mehr erfassen können, um „in der Verantwortung“ zu reagieren.
Ich behaupte, dass es illegal ist, wenn Fahrzeughersteller ohne gesetzliche Erlaubnis derart Technik anbieten (derzeit noch gegen Aufpreis), um ihre Käufer an diese Technik heranzuführen, die direkten Einfluß auf Lenkung und Bremsen nehmen kann und diese Fahrzeugführer jedoch für alles vollverantwortlich sein sollen. Das ist eine Verführung und Käufer werden den Herstellern bei Problemen/Unfällen wohl kaum in den Rücken fallen, wie sie es bei Navi-Benutzung und verbotenem Telefonieren während der Fahrt ja auch nicht tun.
Ich fand im Netz auch schon einen Artikel von Lennart S. Lutz über gravierende Rechtsprobleme fremdgesteuerten (auch teilautonomen) Fahrens.
Als gelegentlicher Mitleser schreibe ich im Forum hier heute diesen Beitrag würde gerne mal wissen, ob ihr meine Bedenken gegen derart technische Fahreingriffe teilen könnt.
PS
Weitergeführt könnte die Diskussion auch zu vollautonomen Fahren führen, jedoch halte ich derart computergesteuertes Autofahren für zu komplex, als dass eine Maschine mit Nullen und Einsen rechnend insbesondere in Städten "unauffällig" Auto fahren könnte.
Beste Antwort im Thema
Zitat:
@inzukunft schrieb am 9. September 2015 um 09:48:58 Uhr:
Ich mache mir Gedanken und Zukunftssorgen um z.T. selbstfahrende Autos, die sich als verkehrsgefährdend betrachten lassen.
Ich mache mir mehr Gedanken um Autofahrer, die wesentlich verkehrsgefährdender unterwegs sind als ein selbstfahrendes Auto das je können wird.
6678 Antworten
Zitat:
@inzukunft schrieb am 05. Juni 2016 um 23:45:55 Uhr:
Ein Sicherheitsgwinn insofern, wenn "alle" mit derart Hirnlosen auch umgehen können/wollen, ??
...ohne diese stehenzulassen. ??
Darum habe ich es auch nur als "Chance" bezeichnet. 😉
Grüße vom Ostelch
@Ostelch schrieb am 5. Juni 2016 um 23:49:56 Uhr:
Darum habe ich es auch nur als "Chance" bezeichnet. 😉
Grüße vom Ostelch
-----------------
"Chance" ohne Zusatz hat aber eine positive Belegung, die hier jedoch nicht zum Ausdruck kommt. 🙄
Zitat:
@Ja-Ho schrieb am 5. Juni 2016 um 21:59:55 Uhr:
Autonom und Manuell nebeneinander kann nur scheitern.
Der Mensch denkt selber und anders als ein Computer.
Aber gerade im Strassenverkehr gibt es sehr sehr viele feste Regeln, die als gemeinsame Basis dienen. Schon immer.
Mit Fehlern (=Abweichung von Regeln) umgehen ist dann ja eher eine Frage der Übersicht und der Reaktion. In beider Hinsicht hat jeder Mensch mal Schwächen.
Zitat:
@inzukunft schrieb am 06. Juni 2016 um 00:13:51 Uhr:
"Chance" ohne Zusatz hat aber eine positive Belegung, die hier jedoch nicht zum Ausdruck kommt.
Aus meiner Sicht schon, aus deiner nicht.
Grüße vom Ostelch
Ähnliche Themen
Zitat:
@Brunolp12 schrieb am 6. Juni 2016 um 08:00:03 Uhr:
Zitat:
@Ja-Ho schrieb am 5. Juni 2016 um 21:59:55 Uhr:
Autonom und Manuell nebeneinander kann nur scheitern.
Der Mensch denkt selber und anders als ein Computer.
Aber gerade im Strassenverkehr gibt es sehr sehr viele feste Regeln, die als gemeinsame Basis dienen. Schon immer.
Mit Fehlern (=Abweichung von Regeln) umgehen ist dann ja eher eine Frage der Übersicht und der Reaktion. In beider Hinsicht hat jeder Mensch mal Schwächen.
Abweichung von Regeln können auch einen rechtfertigenden Notstand zur Abwendung einer Gefahr als Ursache haben. Z. Bsp. überfahren einer roten Ampel um einem Rettungsfahrzeug die Durchfahrt zu ermöglichen. Das müsste ein autonomes Fahrzeug natürlich auch erkennen können. Deshalb kann man die "Regeln" im Strassenverkehr nicht fest und unabänderlich verdrahten.
Bei der immer wiederkehrenden Vermutung/Behauptung autonome Systeme hätten eine besondere Stärke bei der Einhaltung von Regeln und Vorschriften möchte ich nochmal auf einen Punkt hinweisen der hier vor 30 - 40 Seiten schonmal angeklungen ist:
Es gilt als akzeptierte Notwendigkeit, dass die Steuerungssoftware für autonome Systeme nicht "herkömmlich" programmiert werden kann, das müssen aufgrund der Komplexität KI-Systeme übernehmen. D. h. es müssen auch noch neue Mechanismen für die Validierung entwickelt werden. Ob autonome Systeme dann tatsächlich so regelkonform unterwegs sein werden, ist heute eine unbewiesene Vermutung (oder Behauptung, abhängig von der Penetranz des Vortrages).
Zitat:
@Moewenmann schrieb am 06. Juni 2016 um 09:54:31 Uhr:
Es gilt als akzeptierte Notwendigkeit, dass die Steuerungssoftware für autonome Systeme nicht "herkömmlich" programmiert werden kann, das müssen aufgrund der Komplexität KI-Systeme übernehmen. D. h. es müssen auch noch neue Mechanismen für die Validierung entwickelt werden. Ob autonome Systeme dann tatsächlich so regelkonform unterwegs sein werden, ist heute eine unbewiesene Vermutung (oder Behauptung, abhängig von der Penetranz des Vortrages).
Autonome Systeme müssen regelkonform fahren, denn sie arbeiten nur nach Regeln. Dass sich jeder Anbieter eine eigene StVO ausdenkt, ist nicht beabsichtigt. "Bewiesen" sein kann für zukünftige Systeme, die heute noch am Anfang ihrer Entwicklung stehen, nichts. Dazu fehlen derzeit noch die Tatsachen, die bewiesen werden könnten.
Grüße vom Ostelch
Zitat:
@Ostelch schrieb am 6. Juni 2016 um 11:11:58 Uhr:
Zitat:
@Moewenmann schrieb am 06. Juni 2016 um 09:54:31 Uhr:
Es gilt als akzeptierte Notwendigkeit, dass die Steuerungssoftware für autonome Systeme nicht "herkömmlich" programmiert werden kann, das müssen aufgrund der Komplexität KI-Systeme übernehmen. D. h. es müssen auch noch neue Mechanismen für die Validierung entwickelt werden. Ob autonome Systeme dann tatsächlich so regelkonform unterwegs sein werden, ist heute eine unbewiesene Vermutung (oder Behauptung, abhängig von der Penetranz des Vortrages).Autonome Systeme müssen regelkonform fahren, denn sie arbeiten nur nach Regeln. Dass sich jeder Anbieter eine eigene StVO ausdenkt, ist nicht beabsichtigt. "Bewiesen" sein kann für zukünftige Systeme, die heute noch am Anfang ihrer Entwicklung stehen, nichts. Dazu fehlen derzeit noch die Tatsachen, die bewiesen werden könnten.
Es gilt als akzeptiert, dass menschliche Fahrer nicht immer und in jeder Situation im Einklang mit allen Regeln und Normen unterwegs sind. Warum sollte das bei autonomen Systemen, die den Menschen ersetzen, anders sein, solange die Sicherheitslage im Vergleich dabei nicht verschlechtert wird? Wenn eine natürliche Intelligenz zur Abwehr von Gefahren Regeln zeitweise missachtet, muss ich das von einer KI auch fordern.
Autonome Systeme arbeiten eben nicht nur nach Regeln, sondern auf der Basis von Erfahrungen die im realen Fahrbetrieb gesammelt werden, wie menschliche Fahrer auch.
Edit: Es muss heißen ... werden arbeiten ...
Zitat:
@Moewenmann schrieb am 6. Juni 2016 um 11:25:52 Uhr:
Es gilt als akzeptiert, dass menschliche Fahrer nicht immer und in jeder Situation im Einklang mit allen Regeln und Normen unterwegs sind.[...]
Autonome Systeme arbeiten eben nicht nur nach Regeln, sondern auf der Basis von Erfahrungen die im realen Fahrbetrieb gesammelt werden, wie menschliche Fahrer auch.
Im Gegensatz zu menschlichen Fahrern kann ich autonomen Systemen aber feste Regeln und absolute Grenzen mit auf den Weg geben, die unter allen Umständen einzuhalten sind. Ich kann dem System z.B. einprogrammieren, dann über eine rote Ampel zu fahren, wenn von hinten ein Einsatzfahrzeug kommt und kein Fußgänger gefährdet wird, aber dabei niemals in den Querverkehr zu fahren.
Ich habe bei diesem Beispiel die Bedingungen (dann, wenn, und) und die absolute Grenze (niemals) mal hervorgehoben.
Dabei haben autonome Systeme den großen Vorteil, dass sie nicht von Emotionen übermannt werden können: Der überholt mich jetzt nicht! Dem zeige ich jetzt, wer der schnellere ist! Auch werden sie nicht in Hektik oder Panik verfallen und daraus falsche Entscheidungen treffen...
Zitat:
@Hannes1971 schrieb am 6. Juni 2016 um 11:41:18 Uhr:
Zitat:
@Moewenmann schrieb am 6. Juni 2016 um 11:25:52 Uhr:
Es gilt als akzeptiert, dass menschliche Fahrer nicht immer und in jeder Situation im Einklang mit allen Regeln und Normen unterwegs sind.[...]
Autonome Systeme arbeiten eben nicht nur nach Regeln, sondern auf der Basis von Erfahrungen die im realen Fahrbetrieb gesammelt werden, wie menschliche Fahrer auch.
Im Gegensatz zu menschlichen Fahrern kann ich autonomen Systemen aber feste Regeln und absolute Grenzen mit auf den Weg geben, die unter allen Umständen einzuhalten sind. Ich kann dem System z.B. einprogrammieren, dann über eine rote Ampel zu fahren, wenn von hinten ein Einsatzfahrzeug kommt und kein Fußgänger gefährdet wird, aber dabei niemals in den Querverkehr zu fahren.
Ich habe bei diesem Beispiel die Bedingungen (dann, wenn, und) und die absolute Grenze (niemals) mal hervorgehoben.
Deiner Argumentation liegt die fehlerhafte Annahme zugrunde, es wäre möglich, eine abschließend gültige Liste von Ausnahmen zu definieren. Das ist nicht der Fall. Für jede Deiner Regeln lassen sich unzählige Situationen finden, in denen diese Regel das eigene Fahrzeug oder Andere gefährdet, mal ganz abgesehen von der Frage ob das System die von Dir geschilderte Situation überhaupt erkennen kann (sowohl die Eingabe "Einsatzfahrzeug und ich stehe im Weg" als auch Entscheidungskriterien wie "nicht in den Querverkehr fahren". Darüber hinaus sind auch andere Reaktionsmöglichkeiten denkbar oder nötig ausser "über die rote Ampel fahren" und "stehen bleiben" wie z. B. Rückwärtsgang, harter Lenkeinschlag und dem rückwärtigen Fahrer signalisieren, er soll versuchen ein Stück zurücksetzen. Es hat schon seinen Grund, warum die Entwickler autonomer Systeme sich von der deterministischen Programmierung verabschiedet haben.
Programmierung nur basierend auf Regeln funktioniert gut für Fahrstühle, und selbst da wird man KI einsetzen um die Effizienz zu verbessern.
Zitat:
Dabei haben autonome Systeme den großen Vorteil, dass sie nicht von Emotionen übermannt werden können: Der überholt mich jetzt nicht! Dem zeige ich jetzt, wer der schnellere ist! Auch werden sie nicht in Hektik oder Panik verfallen und daraus falsche Entscheidungen treffen...
Völlig richtig erkannt. Darüber hinaus darf man aber nicht verleugnen, dass sie andere Fehler haben können/werden oder machen, die einem menschlichen Fahrer nicht passieren werden.
Zitat:
@Moewenmann schrieb am 6. Juni 2016 um 12:05:11 Uhr:
Völlig richtig erkannt. Darüber hinaus darf man aber nicht verleugnen, dass sie andere Fehler haben können/werden oder machen, die einem menschlichen Fahrer nicht passieren werden.
Richtig. Im Gegensatz zum Menschen machen sie aber jeden Fehler nur einmal (so er denn als Fehler erkannt wurde und für die Zukunft berücksichtigt wird). Und über die mögliche Verknüpfung per Internet lernen alle anderen autonomen Systeme von den Fehlern der anderen.
Es ist durchaus möglich und nicht unwahrscheinlich, dass das autonome Fahren zu Unfällen und auch zu Todesopfern führen wird, die menschlichen Fahrern nicht passieren würden. Unterm Strich wird es mit hoher Wahrscheinlichkeit zu einer Reduzierung der Unfallzahlen kommen. Wenn durch das autonome Fahren 3 Unfälle passieren, die sonst nicht passieren, dafür aber 10 verhindert werden, ist die Bilanz unterm Strich positiv. Das mögen die 3 Unfallopfer anders sehen, das sind dann halt die statistischen Verlierer...
Zitat:
@Moewenmann schrieb am 6. Juni 2016 um 11:25:52 Uhr:
Zitat:
@Ostelch schrieb am 6. Juni 2016 um 11:11:58 Uhr:
Autonome Systeme müssen regelkonform fahren, denn sie arbeiten nur nach Regeln. Dass sich jeder Anbieter eine eigene StVO ausdenkt, ist nicht beabsichtigt. "Bewiesen" sein kann für zukünftige Systeme, die heute noch am Anfang ihrer Entwicklung stehen, nichts. Dazu fehlen derzeit noch die Tatsachen, die bewiesen werden könnten.
Es gilt als akzeptiert, dass menschliche Fahrer nicht immer und in jeder Situation im Einklang mit allen Regeln und Normen unterwegs sind. Warum sollte das bei autonomen Systemen, die den Menschen ersetzen, anders sein, solange die Sicherheitslage im Vergleich dabei nicht verschlechtert wird? Wenn eine natürliche Intelligenz zur Abwehr von Gefahren Regeln zeitweise missachtet, muss ich das von einer KI auch fordern.
Autonome Systeme arbeiten eben nicht nur nach Regeln, sondern auf der Basis von Erfahrungen die im realen Fahrbetrieb gesammelt werden, wie menschliche Fahrer auch.Edit: Es muss heißen ... werden arbeiten ...
Nur weil Menschen sich nicht an Regeln halten, ist das kein hinreichender Grund, dies auch für autonome Systeme zu fordern. Menschen handeln nicht immer rational, Maschinen schon. Sie machen, was ihnen vorgegeben wurde. Dennoch kann auch eine Maschine in eine Situation kommen, in der neben der Regel gerade die Ausnahme die bessere Entscheidung ist. Auch wenn eine Maschine in einer Gefahrensituation einen nicht regelkonformen Weg einschlägt, muss es für diese Aktion eine vom Menschen vorgesehene Voraussetzung im Programm geben. Gleiches gilt für die Art und Weise, wie eine Maschine "lernt".
Grüße vom Ostelch
Zitat:
@Moewenmann schrieb am 6. Juni 2016 um 12:05:11 Uhr:
Zitat:
@Hannes1971 schrieb am 6. Juni 2016 um 11:41:18 Uhr:
Im Gegensatz zu menschlichen Fahrern kann ich autonomen Systemen aber feste Regeln und absolute Grenzen mit auf den Weg geben, die unter allen Umständen einzuhalten sind. Ich kann dem System z.B. einprogrammieren, dann über eine rote Ampel zu fahren, wenn von hinten ein Einsatzfahrzeug kommt und kein Fußgänger gefährdet wird, aber dabei niemals in den Querverkehr zu fahren.
Ich habe bei diesem Beispiel die Bedingungen (dann, wenn, und) und die absolute Grenze (niemals) mal hervorgehoben.
Deiner Argumentation liegt die fehlerhafte Annahme zugrunde, es wäre möglich, eine abschließend gültige Liste von Ausnahmen zu definieren. Das ist nicht der Fall.
Das Beispiel ist natürlich stark vereinfacht. Aber eine solche Liste kann aufgestellt werden und die muss keineswegs abgeschlossen sein sondern dürfte ständig erweitert werden.
Zitat:
Für jede Deiner Regeln lassen sich unzählige Situationen finden, in denen diese Regel das eigene Fahrzeug oder Andere gefährdet, [...]
Welche denn? Gib doch mal ein anschauliches Beispiel? Ich kann mich nicht erinnern, mein Fahrzeug oder mich durch das Nichtüberfahren einer roten Ampel gefährdet zu haben. Natürlich mag es mal den Fall geben, in denen der ungebremste 40-Tonner von hinten angeschossen kommt und das losspurten über die rote Ampel den Aufprall vermeiden würde. Diesen Ausweg würden aber auch 99 % der menschlichen Fahrer nicht wählen, da sie zum einen die Situation gar nicht erkennen (der Fokus ist an der roten Ampel hauptsächlich nach vorne gerichtet) und wenn dann kaum die Zeit hätten, die Entscheidung zur Flucht nach vorne zu treffen. Und wenn sie es tun, dürfte auch kein Fußgänger im Weg sein und das Fahrzeug müsste heile durch den Querverkehr kommen. Dann wäre die Option "Stehenbleiben" unterm Strich vielleicht doch die bestmögliche...
Zitat:
mal ganz abgesehen von der Frage ob das System die von Dir geschilderte Situation überhaupt erkennen kann (sowohl die Eingabe "Einsatzfahrzeug und ich stehe im Weg" als auch Entscheidungskriterien wie "nicht in den Querverkehr fahren".
Da sehe ich jetzt überhaupt kein Problem. In einer "vollautonomen Welt" müsste das Einsatzfahrzeug (zumindest für den Kraftfahrzeugverkehr) nicht einmal mehr Sondersignal benutzen, es könnte seinen Vorrang drahtlos an die anderen Fahrzeuge mitteilen und wie von Zauberhand für eine Rettungsgasse und stehenden Querverkehr sorgen. In einer "teilautonomen Welt" müssten beide Systeme parallel laufen.
Den Verlauf des Querverkehrs zu erkennen dürfte sogar heute schon eine leichte Übung sein. Audi bietet z.B. einen Ausparkassistenten an, der beim Rückwärts aus der Parkbox fahren vor herannahendem Querverkehr warnt.
Zitat:
Darüber hinaus sind auch andere Reaktionsmöglichkeiten denkbar oder nötig ausser "über die rote Ampel fahren" und "stehen bleiben" wie z. B. Rückwärtsgang, harter Lenkeinschlag und dem rückwärtigen Fahrer signalisieren, er soll versuchen ein Stück zurücksetzen.
Jetzt machst Du mich neugierig. Ich fahre seit 26 Jahren Einsatzfahrzeuge. Die Situation, dass im Stau Rückwärtsfahren des Verkehrs vor mir zum Platz machen beigetragen hätte, habe ich noch nicht erlebt. Dass es hilfreich wäre, wenn der erste in der Schlange mal 2 m über die rote Ampel fährt und somit seinen Hintermännern den notwendigen Raum zum Rangieren verschafft, erlebe ich häufiger. Dass es auch gemacht wird vielleicht in einem von drei Fällen. Diesen Vorgang zu "Autonomisieren" kann die Gesamtsituation also nur verbessern...
Zitat:
Völlig richtig erkannt. Darüber hinaus darf man aber nicht verleugnen, dass sie andere Fehler haben können/werden oder machen, die einem menschlichen Fahrer nicht passieren werden.
Siehe mein vorheriger Post. Und wie gesagt: die autonomen Systeme müssen nicht absolut perfekt sein. Sie müssen lediglich deutlich weniger Fehler machen und deutlich weniger Unfälle verursachen als menschliche Fahrer. Und das dürfte so schwierig nicht sein, wenn man das fahrerische Durchschnittskönnen als Ausgangsbasis zugrunde legt. Natürlich nicht das deutlich überdurchschnittliche Können der hier im Forum vertretenen (selbst ernannten) fahrerischen Elite 😁
Zitat:
@Hannes1971 schrieb am 6. Juni 2016 um 12:12:28 Uhr:
Zitat:
@Moewenmann schrieb am 6. Juni 2016 um 12:05:11 Uhr:
Völlig richtig erkannt. Darüber hinaus darf man aber nicht verleugnen, dass sie andere Fehler haben können/werden oder machen, die einem menschlichen Fahrer nicht passieren werden.Richtig. Im Gegensatz zum Menschen machen sie aber jeden Fehler nur einmal (so er denn als Fehler erkannt wurde und für die Zukunft berücksichtigt wird). Und über die mögliche Verknüpfung per Internet lernen alle anderen autonomen Systeme von den Fehlern der anderen.
Es ist durchaus möglich und nicht unwahrscheinlich, dass das autonome Fahren zu Unfällen und auch zu Todesopfern führen wird, die menschlichen Fahrern nicht passieren würden. Unterm Strich wird es mit hoher Wahrscheinlichkeit zu einer Reduzierung der Unfallzahlen kommen. Wenn durch das autonome Fahren 3 Unfälle passieren, die sonst nicht passieren, dafür aber 10 verhindert werden, ist die Bilanz unterm Strich positiv. Das mögen die 3 Unfallopfer anders sehen, das sind dann halt die statistischen Verlierer...
Da bin ich auch durchaus Deiner Meinung, wenn man davon absieht, dass Du Spekulationen bei der hier von Dir geäußerten Meinung (hinsichtlich aller angesprochenen Features) nicht kenntlich gemacht hast. Wäre ich jetzt erklärter "Gegner" autonomen Fahrens, würde ich sogar von Wunschdenken schreiben.
Auch wenn diese Meinung noch so oft hier im Forum geschrieben wird, werden die möglichen Vorteile nicht zur Gewißheit.
Hier von "hoher Wahrscheinlichkeit" zu schreiben ist schon echt gewagt. Entwickler begnügen sich mit der einfachen Aussage, dass zum Thema Sicherheit und Unfallvermeidung noch keine Aussagen möglich sind.
Gewürzt mit einer gesunden Portion des Konjunktivs ergeben diese Aussagen einen schlüssigen Teil der Motiviation für die Entwicklung des (teil-) autonomen Fahrens.
Edit
Da Du, wie Du schreibst, Einsatzfahrzeuge fährst wundert es mich, dass Dich die Vorstellung, an einer Kreuzung könnten von 20 Fahrzeugen 5 still stehen bleiben, weil deren Programmierung nicht adäquat mit der Situation umgehen kann, nicht beunruhigt. Entspricht nicht meiner Erfahrung - aber ich fahre ja auch nicht mit Sondersignal. Es könnte natürlich auch die Hoffnung auf eine bessere Situation sein, die ich aber erst nach der weitgehenden Abschaffung des individuellen Fahrens als gegeben sehe. Meinung meinerseits - kein Fakt oder von Google (Search) unterstützte Position.
/Edit
@Ostelch: Auf der Basis erwarte bitte keine Antwort mehr. Wenn es Dich nicht stört, dass die Entwickler nicht Deiner Meinung sind - schön für Dich.
Zitat:
@Ostelch schrieb am 6. Juni 2016 um 12:25:37 Uhr:
Nur weil Menschen sich nicht an Regeln halten, ist das kein hinreichender Grund, dies auch für autonome Systeme zu fordern. Menschen handeln nicht immer rational, Maschinen schon. Sie machen, was ihnen vorgegeben wurde. Dennoch kann auch eine Maschine in eine Situation kommen, in der neben der Regel gerade die Ausnahme die bessere Entscheidung ist. Auch wenn eine Maschine in einer Gefahrensituation einen nicht regelkonformen Weg einschlägt, muss es für diese Aktion eine vom Menschen vorgesehene Voraussetzung im Programm geben. Gleiches gilt für die Art und Weise, wie eine Maschine "lernt".
Das ist es was ich meinte: Überschreiten von Regeln in Ausnahmesituationen zulassen (und damit meine ich nicht die "Ausnahmesituation" Stau, der über die Standspur umfahren werden könnte), dabei aber unüberschreitbare Grenzen definieren. Im Gegensatz zu den menschlichen Fahrern könnte ein autonomes Fahrzeug seine Überschreitung anderen autonomen Fahrzeugen in der Umgebung auch noch innerhalb von Millisekunden mitteilen, so dass diese sich darauf einstellen können. Ganz ohne Missverständnisse (was will den der Ar..., den blockier ich jetzt!).
Zitat:
@Moewenmann schrieb am 6. Juni 2016 um 12:34:24 Uhr:
...
Entwickler begnügen sich mit der einfachen Aussage, dass zum Thema Sicherheit und Unfallvermeidung noch keine Aussagen möglich sind.
...
@Ostelch: Auf der Basis erwarte bitte keine Antwort mehr. Wenn es Dich nicht stört, dass die Entwickler nicht Deiner Meinung sind - schön für Dich.
Ich weiß jetzt nicht welche Entwickler nicht meiner Meinung sind. Die, die du selbst im obigen Satz zitierst, sind es wohl nicht. Wenn zu diesen Punkten noch keine Aussagen möglich sein sollen, dann trifft das für die Leistungsfähigkeit "selbstlernender" Systeme in der Zukunft wohl auch zu.
Grüße vom Ostelch