Teil & Autonomes Autofahren eine Bedrohung der allgemeinen Verkehrssicherheit

Ich mache mir Gedanken und Zukunftssorgen um z.T. selbstfahrende Autos, die sich als verkehrsgefährdend betrachten lassen.
Ich fand u.a. einen bezeichnenden Satz von Manuel Perez Prada: „ Wer Menschen immer mehr Aufgaben beim Fahren abnimmt, der schwächt diese Schwachstelle noch mehr, denn die Aufmerksamkeit sinkt gegen Null (sein Hinweis: "Idiotensicherheit schafft Idioten"😉.

Ferner in dem Artikel über die neuste S-Kl.-Daimler „sich selbst durch den Verkehr zu lenken“ werfen sich mir Fragen auf.
Ist "Teilautonomes Fahren", vorerst die Hände bereits für kurze Zeit vom Lenkrad nehmen zu können, überhaupt legal ?
Wird also ohne Zulassung „illegalerweise“ nicht bereits erstmalig eine Technik bereitgestellt (glaube, TESLA bietet dieses als update gegen Aufpreis auch bereits an), die nicht auch verhängnisvolle Folgen für beteiligte Verkehrsteilnehmer haben kann ?
Das Daimler-Fahrzeug soll bei „Unklarheiten“ bereits eine "Notbremsung" selbstätig vornehmen, sofern der Fahrzeug-Lenker die Hände bei Warnsignalen nicht zurück ans Lenkrad führt. Verwirrend jedoch wird davon gesprochen, dass das Auto lediglich Sekunden ohne Lenkradberührung fahren würde und andererseits soll der Fahrer emails schreiben können, die sicherlich nicht sekundenschnell gemacht sein können.

Also, wenn im fließenden Verkehr ein PKW ( S-Kl. Daimler, TESLA) aus unersichtlichem Grund bremst, dann halte ich das für die kurz nachfolgenden PKW`S für unakzeptabel. Denn, wenn jemand während des Schreibens von Briefen den Verkehrsablauf gar nicht verfolgt hat, dann wird er beim Erscheinen eines Auto-Warnsignals den Verkehrsumstand binnen Millisekunden auch nicht mehr erfassen können, um „in der Verantwortung“ zu reagieren.

Ich behaupte, dass es illegal ist, wenn Fahrzeughersteller ohne gesetzliche Erlaubnis derart Technik anbieten (derzeit noch gegen Aufpreis), um ihre Käufer an diese Technik heranzuführen, die direkten Einfluß auf Lenkung und Bremsen nehmen kann und diese Fahrzeugführer jedoch für alles vollverantwortlich sein sollen. Das ist eine Verführung und Käufer werden den Herstellern bei Problemen/Unfällen wohl kaum in den Rücken fallen, wie sie es bei Navi-Benutzung und verbotenem Telefonieren während der Fahrt ja auch nicht tun.
Ich fand im Netz auch schon einen Artikel von Lennart S. Lutz über gravierende Rechtsprobleme fremdgesteuerten (auch teilautonomen) Fahrens.

Als gelegentlicher Mitleser schreibe ich im Forum hier heute diesen Beitrag würde gerne mal wissen, ob ihr meine Bedenken gegen derart technische Fahreingriffe teilen könnt.

PS
Weitergeführt könnte die Diskussion auch zu vollautonomen Fahren führen, jedoch halte ich derart computergesteuertes Autofahren für zu komplex, als dass eine Maschine mit Nullen und Einsen rechnend insbesondere in Städten "unauffällig" Auto fahren könnte.

Beste Antwort im Thema

Zitat:

@inzukunft schrieb am 9. September 2015 um 09:48:58 Uhr:


Ich mache mir Gedanken und Zukunftssorgen um z.T. selbstfahrende Autos, die sich als verkehrsgefährdend betrachten lassen.

Ich mache mir mehr Gedanken um Autofahrer, die wesentlich verkehrsgefährdender unterwegs sind als ein selbstfahrendes Auto das je können wird.

6678 weitere Antworten
6678 Antworten

Zitat:

@KaJu74 schrieb am 1. Juli 2016 um 08:50:35 Uhr:


Es gab den ersten tödlichen Unfall mit dem Tesla Autopilot:
http://www.blick.ch/.../...pfer-in-selbstfahrendem-auto-id5214452.html

R.I.P.

Aber eine Frage.

Ich dachte das geht nicht:

Zitat:

@KaJu74 schrieb am 1. Juli 2016 um 08:50:35 Uhr:



Zitat:

Der Tesla-Lenker habe während dem Unfall den Film Harry Potter geschaut. «Der Film lief noch weiter als er starb», sagt Baressi.

Das passiert, weil Leute meinen, der Computer macht alles alleine. Braucht keine Überwachung mehr. Diejenigen, die sich solche Autos kaufen, haben jetzt schon öfter Probleme gehabt, weil sie sofort der Annahme waren, man muss gar nichts machen. Aber die anderen sind bei Autopilot-Problemen immer mit dem Schrecken davon gekommen.

Jetzt ist es doch passiert. Schöne Scheisse 🙁

Bekräftigt nur meine Anti-autonomes fahren Haltung.

Es ist frustrierend dass schätzungsweise 90 Prozent der Foristi die Problematik dieser Angelegenheit nicht erkennen können. Natürlich sind die Szenarien theoretisch. Müssen das auch sein weil es ja (abgesehen vom ersten tödlichen Tesla Unfall) noch keine Erfahrungen gibt. Und so abwegig ein Szenario auch erscheinen mag: es ist möglich.
Und es geht auch nicht um ein bestimmtes Szenario, sondern es geht um die ethischen Konsequenzen: Darf eine Maschine über (meinen oder anderer Leute)Tod oder Leben entscheiden?!
Jede denkbare Situation muss logischerweise VOR der Programmierung einer Software durchdacht und durchgespielt werde. Wie sollte man denn sonst einen Algorithmus formulieren können? Auch das haben 90 Prozent der Foristi nicht begriffen sonst würden sie sich nicht abfällig über solche "sinnlosen Gedankenspiele" lustig machen.
Daß beim autonom fahrenen Auto weniger Fehler gemacht und die Unfallzahlen sinken könnten ist bisher reine Spekulation, Noch nie sind solche Autos mit 180 über eine Autobahn oder mit 100 über eine Landstraße gebrettert. Kein noch so schneller Rechner ist in der Lage eine komplexe Situation zu erkennen. Der Tesla hat wohl den Laster ganz einfach nicht gesehen. Erzähle das mal den Hinterbliebenen: Jeder Depp hätte den Laster deutlich gesehen. Der Tesla eben nicht. Aber das ist eine vollkommen andere Frage, nämlich die der Wahrnehmung, also das Erkennen der Umgebung.
Dieses sichere Erkennen ist die Voraussetzung jeder Handlung / Reaktion. Erst danach kann sich die Frage stellen wie auf diese erkannte (!) Situation zu reagieren ist. Und niemand kann mir erzählen dass ein Rechner mittes Kamera eine komplexe Situation schneller erkennt als jeder von uns.
Zum Schluss noch eine Bemerkung zu einem von der Elektronik geopferten Fahrer:
Wenn der Fahrer eine Frau mit Kinderwagen vor sich sieht und die Situation aussichtlos ist dann kann er sein Leben opfern um die beiden zu retten. In diesem Fall hat er eine ethisch hochwertige Entscheidung getroffen und man könnte das als heldenhaft bezeichnen. Er ist ein RETTER.
Wenn aber das Auto diese Entscheidung trifft dann hat er selbst keine Entscheidungsfreiheit mehr über sein Leben und sein Schicksal, sondern er ist ein OPFER.

Und genau deshalb gehören die Versuche noch nicht auf die Straße!
Man kann etwas entwickeln, sollte aber erst dann damit in den öffentlichen Verkehrsraum, wenn Zweifel ausgeschlossen sind.
Software kann nur so gut sein wie die Menschen, die sie entwickelt haben.

Zitat:

@buggeliger [url=http://www.motor-talk.de/.../...n-verkehrssicherheit-t5430129.html?...]schrieb am 1. Juli 2016 um Wenn aber das Auto diese Entscheidung trifft dann hat er selbst keine Entscheidungsfreiheit mehr über sein Leben und sein Schicksal, sondern er ist ein OPFER.

Das Auto, die Maschine, trifft die Entscheidung ja nicht, sie hat ja kein Bewusstsein, sondern ist nur ein Mechanismus, Hardware und Software.
Ein Programmierer berücksichtigt mögliche Situationen, und programmiert die Reaktion darauf.
Und muß dabei Kompromisse eingehen, weil die Rechenleistung bei weitem noch nicht der des Menschen entspricht.
Der Mensch hätte den Lastwagen vermutlich erkannt, oder mal einfach vorsichtshalber gebremst weil er voll in die Sonne schaut, und nichts sehen kann, und da könnte ja ein Lastwagen sein.
Der Rechner erkennt die Form als Lastwagen, berechnet die Kollisionswahrscheinlichkeit, und bremst, oder die Kamera hat nicht genug Kontrast, oder kommt mit dem Gegenlicht nicht so gut klar, der Rechner findet die Form "Lastwagen" in den Daten nicht...
Und fährt rein.
Der Programmierer hätte also die Situation "Kamera kann Umfeld nicht erfassen, Gegenlicht" oder "zu wenig Kontrast" als Möglichkeit berücksichtigen müssen, und dann einen Warnton ausgeben müssen, oder vorsichtshalber bremsen, oder was auch immer.
Irgendwann werden die Systeme genug Rechenleistung bei einem im Auto erfüllbaren Stromverbrauch haben, und auch solche Situationen handeln können.

In diesem speziellen Fall, ist der Fahrer also nicht Opfer, sondern blöde.
Wer sich hinter das Lenkrad setzt, und einen Film schaut, hat jeden Einschlag verdient.

Ähnliche Themen

Zitat:

@buggeliger schrieb am 1. Juli 2016 um 09:12:54 Uhr:


Es ist frustrierend dass schätzungsweise 90 Prozent der Foristi die Problematik dieser Angelegenheit nicht erkennen können. Natürlich sind die Szenarien theoretisch. Müssen das auch sein weil es ja (abgesehen vom ersten tödlichen Tesla Unfall) noch keine Erfahrungen gibt. Und so abwegig ein Szenario auch erscheinen mag: es ist möglich.

PS:
Was ich gerade geschrieben habe könnte wohl falsch rüberkommen.
Um es also klar zu sagen:
Es war nicht meine Absicht Dir zu widersprechen !

Zitat:

@Lagebernd schrieb am 1. Juli 2016 um 09:25:26 Uhr:


Und genau deshalb gehören die Versuche noch nicht auf die Straße!
Man kann etwas entwickeln, sollte aber erst dann damit in den öffentlichen Verkehrsraum, wenn Zweifel ausgeschlossen sind.
Software kann nur so gut sein wie die Menschen, die sie entwickelt haben.

Sie funktioniert auch nur in den Grenzen, die ihr die Entwickler gesetzt haben. Wer das als Anwender nicht beachtet, hat immer ein Problem. Zum Tesla-Vorfall sollte man nicht außer acht lassen, dass dieser "Auto-Pilot" bei Tesla standardmäßig deaktiviert ist und ausdrücklich als Beta-Version bezeichnet wird, die die Aufmerksamkeit des Fahrers braucht. Es ist also kein fertiges System. Wer es dennoch "blind" benutzt, macht einen Fehler. Ob es sinnvoll und zulässig ist, den Kunden bei solchen sicherheitsrelevanten Techniken als Beta-Tester arbeiten zu lassen, wird die Behörde jetzt sicher auch prüfen. Der falsche und leichtsinnige Umgang mit einer Beta-Version im Auto ist eben gefährlicher als wenn es bloß ein PC-Programm ist. Dieser Tatsache sollte man sich eigentlich als vernünftiger Mensch bewusst sein, aber das traurige Beispiel zeigt, dass man sich als Hersteller darauf nicht verlassen kann.

Grüße vom Ostelch

Klar Ostelch... Der Fahrer ist schuld, wie immer bei Tesla und der Wagen hat alles richtig gemacht, wie?

Doppelpost, gelöscht

@oliverspl Hab ich schon richtig verstanden. Mir ging es kurz gesagt nur um A) die reich technische und B) die ethisch/mnoralische Komponente. Ich bezweilfle das es eine Technik geben wirdn die der Erkenntnistiefe eines menschlichen Gehirns auch nur entfernt nahe kommen wird, und das auch mit absoluter zuverlässigkeit. Je komplexer ein system ist, desto anfälliger für Fehler wird es. Unsere Gehirne haben mehr Synapsen als es Sterne in der Milchstraße gibt, und die mögliche Anzahl der Verknüpfung dürfte die Zahl der Sterne im Universum übersteigen. Das kriegst du nie auf eine Platine.....

Selbst wenn noch 30 andere Teslafahrer drauf gehen, es ist der richtige Weg, und er wird beschritten werden. Ob es auch überall in der Zeitung steht, wenn der erste Teslafahrer sich selbst zerlegt? Oder vielleicht schon passiert, und es war halt nur ein normaler Unfall unter tausend anderen?

Der Mensch ist auch "ein System", das sehr oft versagt, und oft die falsche Entscheidung trifft. Da Computer festen Programmierungen folgen (wie schon richtig erkannt, noch denken sie nicht selbst), werden sie bei 99% aller im Alltag auftretenden Situationen aber die bessere Reaktion zeigen und anhand ihrer Programmierung besser verfahren als Kollege Mensch.

Es gab auch schon Flugzeugabstürze, weil der Autopilot falsch gehandelt hat, weil er falsche Daten bekam. Siehe Air France Absturz über dem Atlantik. Aber die Menschen handelten dann genau so falsch, und die Kiste stürzte ins Meer. Beide handelten nach dem, was sie gezeigt bekamen. So etwas wird es auch beim Autonomen Fahren geben.

Als letzter Punkt noch ein Satz zu diesem Opfer Unsinn: Das ist ja nun völliger Schwachsinn. Zum einen sind die zig tausend Beifahrertoten genau so Opfer. Nichts anderes wäre es, wenn eine Maschine am Steuer war. Man ist aber eben kein Opfer, sondern genau wie beim menschlichen Fahrer der leittragende von einer Verkettung unglücklicher Umstände. Genau wie der Computer handelt der Mensch in Gefahrensituationen nach einer Programmierung. Nur dass diese eben von Instinkten und Erfahrungen "programmiert" wurde. Bei Computern ist es nix anderes.

Ich kann nur noch darüber lachen wenn hier propagiert wird, der Mensch handele in solchen Situationen menschlicher oder ethischer. Wie bescheuert ist das denn? Der Mensch handelt nach seinem Urtrieb, zu überleben. Seine Instinkte steuern ihn (wenn man es nicht wie Kampfpiloten gelernt hat, diese zu unterdrücken), und dann sind eben die Leute auf der Straße tot, anstatt man selber. Für den "Bestand" an Menschen macht das keinen Unterschied. Und unsere Ethik Freunde sollten vielleicht auch mal die Frage stellen, ob es nicht Fälle gibt, in denen es "gerechter" wäre, der Computer lenkt den Fahrer in den Tod. Wie oft liest man "Betrunkener in die Fußgängerzone" usw...

Zitat:

@Tomcat1985 schrieb am 1. Juli 2016 um 10:15:05 Uhr:


Klar Ostelch... Der Fahrer ist schuld, wie immer bei Tesla und der Wagen hat alles richtig gemacht, wie?

Ja, natürlich... Hätte er nicht Filmchen geschaut und sich stattdessen auf den Verkehr konzentriert, so hätte er (wahrscheinlich) auf die Bremse tappen können. Wenn auch er es nicht hat kommen sehen, dann ist er (der Fahrer) trotzdem immer noch schuld.

Zitat:

@Tomcat1985 schrieb am 01. Juli 2016 um 10:15:05 Uhr:


Klar Ostelch... Der Fahrer ist schuld, wie immer bei Tesla und der Wagen hat alles richtig gemacht, wie?

Ja, klar ist der Fahrer schuld. Das Auto konnte es nicht besser und durfte deshalb nicht blind gefahren werden. Wer das System aktiviert, weiß das, bzw. sollte es wissen. Darum ist es standardmäßig deaktiviert. Da muss man nicht polemisch werden.

Zitat:

@Ostelch schrieb am 1. Juli 2016 um 10:57:29 Uhr:



Zitat:

@Tomcat1985 schrieb am 01. Juli 2016 um 10:15:05 Uhr:


Klar Ostelch... Der Fahrer ist schuld, wie immer bei Tesla und der Wagen hat alles richtig gemacht, wie?

Ja, klar ist der Fahrer schuld. Das Auto konnte es nicht besser und durfte deshalb nicht blind gefahren werden. Wer das System aktiviert, weiß das, bzw. sollte es wissen. Darum ist es standardmäßig deaktiviert. Da muss man nicht polemisch werden.

Tesla hat hier schon den Fehler gemacht, dass sie das ganze überhaupt auf Kundenbasis im Alltag verkaufen und mit dem Autopilot werben, dass die meisten Fahrer davon hypothetisch ausgehen könnten, dass der Wagen alles selber macht. Der Name Autopilot ist ja schon an sich irreführend. Weil sich viele an Flugzeuge erinnert fühlen. Und das Kunden so denken, ist doch von Tesla werbetechnisch so gewollt.

Zitat:

@Tomcat1985 schrieb am 1. Juli 2016 um 11:02:44 Uhr:


dass die meisten Fahrer davon hypothetisch ausgehen könnten, dass der Wagen alles selber macht. Der Name Autopilot ist ja schon an sich irreführend.

Ersetze "die meisten" durch "die amerikanischen"... ^^ Dann ist auch geklärt, warum Hunde in der Mikrowelle landen, McD einen Warnhinweis auf heissen Kaffee auf die Becher druckt und warum auch schon wegen des Begriffes "Cruise Control" geklagt wurde...

Zitat:

@MausHause schrieb am 1. Juli 2016 um 11:06:19 Uhr:



Zitat:

@Tomcat1985 schrieb am 1. Juli 2016 um 11:02:44 Uhr:


dass die meisten Fahrer davon hypothetisch ausgehen könnten, dass der Wagen alles selber macht. Der Name Autopilot ist ja schon an sich irreführend.

Ersetze "die meisten" durch "die amerikanischen"... ^^ Dann ist auch geklärt, warum Hunde in der Mikrowelle landen, McD einen Warnhinweis auf heissen Kaffee auf die Becher druckt und warum auch schon wegen des Begriffes "Cruise Control" geklagt wurde...

Das sagt allerdings nicht zwingend aus das Amerikaner dumm sind, sondern vor allem das deren Rechtssystem total irre Entschädigungen zulässt.
Auch hier verschütten Kinder Cola, und jemand rutscht drauf aus, aber hier würde Dich der Richter glatt rausschmeissen wenn Du deswegen klagst, in den USA wirst Du entschädigt.

Ähnliche Themen