Tesla Autopilot vs. Systeme anderer Hersteller
Sehr interessant: "The best or nothing" gegen den "Prügelknaben"
Beste Antwort im Thema
Zitat:
@radio schrieb am 27. Februar 2020 um 06:51:50 Uhr:
............sei es durch Kinder, Ehefrau, mittleren Alterns oder mal wieder zu wenig geschlafen.
Dann solltest du dir eine Alternative zum fahren suchen.
Besonders wenn du zu wenig Schlaf hast. 🙂
4147 Antworten
Zitat:
@MartinBru schrieb am 19. März 2018 um 16:51:07 Uhr:
Sogar im Stadtverkehr würde das funktionieren. Aber da ich nicht sicher bin, ob er jedes zwischen geparkten Autos rauslaufende Kind sehen würde, erspare ich mir das Risiko.
Heute im AP1 Fahrzeug:
AP wird nicht angeboten. Fahre mit ca. 30km/h auf einer kurvigen Strasse ohne Mittellinie. Das Auto gibt ein lautes Warnsignal ab (Fussgängererkennung). Die Person stand auf dem Gehsteig auf das Handy starend. Aufgrund der Kurvenlage und der Nichterkennung der Seitenbegrenzung (Gehsteig) projizierte das System die Person in die Fahrbahn => die Fussgängererkennung funktioniert. Falschalarm wird dann ausgegeben, wenn die Fahrstrecke falsch berechnet wird.
Weil wir gerade davon reden. Jetzt ist es passiert. Ein autonomes Auto von Uber hat letzte Nacht einen Fußgänger überfahren und getötet.
https://www.theguardian.com/.../...iving-car-kills-woman-arizona-tempe
Details sind nicht bekannt, außer dass es einen Sicherheitsfahrer gab, der aber den Unfall nicht verhindert hat. Mal sehen was da rauskommt. Hoffentlich verzögert das nicht den Weg zu Level 5.
Das ist wirklich eine Horrornachricht. Ob es den Weg zum Level 5 verzögert oder nicht ist erstmal unwichtig aufgrund der tragischen Tatsache, dass ein Mensch getötet wurde. Vielmehr sollte es jedem nochmals deutlich vor Augen führen, dass man sich zum jetzigen Zeitpunkt auf keinen Fall auf die Technik verlassen darf.
Es scheint sich um eine Fahrradfahrerin gehandelt zu haben:
Natürlich ist es tragisch, wenn ein Mensch im Straßenverkehr durch ein autonomes Auto gestorben ist. Andererseits sterben weltweit aber täglich tausende (ja, wirklich tausende!) auf den Straßen durch menschliche Fahrer.
Da es gesellschaftlich akzeptiert ist, dass sich Menschen im Verkehr gegenseitig töten, aber von Maschinen verlangt wird, dass sie 100% fehlerfrei arbeiten, macht es mir mehr Sorgen, ob dadurch die Entwicklung zurückgeworfen wird.
Ich hoffe, dass allen klar ist, dass man sich nie zu 100% auf die Technik verlassen können wird. Aber auf den Straßen wird es garantiert sicherer, wenn der größte Teil der Autos automatisiert ist.
Edit: Die Faktenlage ist anscheinend noch im Fluss. Der Guardian schreibt von einer Fußgängerin, die ohne Zebrastreifen überqueren wollte. Electrek schreibt von einer Fahrradfahrerin auf einem Fußgängerübergang. So oder so hätte das Auto aber einen Crash verhindern sollen.
Ähnliche Themen
Bei aller Tragik, lieber @chrisschorsch, die ich keinesfalls herunterspielen möchte, so können Unfälle passieren. Und natürlich ist das weder für den Verstorbenen noch für die Angehörigen ein Trost, aber: die Anzahl der Verkehrstoten durch automatisiertes Fahren halten sich zum Glück im weit unterdurchschnittlichen statistischen Rahmen in Bezug auf die zurückgelegten Kilometer.
Ich bin total für 100% sichere Systeme. Momentan begnüge ich mich aber mit solchen, die statistisch sicherer sind als der Mensch.
Aussagen wie die Deine werden leider sehr schnell durch andere übernommen (insbesondere bestimmt durch Fachexperten wie Politiker) und das führt dann unterm Strich zu weniger Automatisierung und schlussendlich mehr Todesfällen. Der Weg geht über die sukzessive Einführung von Automatisierung und ich bin absolut sicher, dass von der aktuellen Entwicklung mehr Personen gerettet werden als dass es zu zusätzlichen Verkehrstoten kommt.
Ethisch mag mein Post etwas problematisch sein - zumal der Tote unbeteiligter Dritter war - aber auch dazu muss man im Rahmen einer sachlichen Diskussion stehen können.
Sollte das ganze natürlich durch Fahrlässigkeit verursacht worden sein, so sind die Verantwortlichen zur Rechenschaft zu ziehen. Aber bitte ohne technischen Stillstand.
Zitat:
@MartinBru schrieb am 19. März 2018 um 19:49:29 Uhr:
Natürlich ist es tragisch, wenn ein Mensch im Straßenverkehr durch ein autonomes Auto gestorben ist. Andererseits sterben weltweit aber täglich tausende (ja, wirklich tausende!) auf den Straßen durch menschliche Fahrer.Da es gesellschaftlich akzeptiert ist, dass sich Menschen im Verkehr gegenseitig töten, aber von Maschinen verlangt wird, dass sie 100% fehlerfrei arbeiten, macht es mir mehr Sorgen, ob dadurch die Entwicklung zurückgeworfen wird.
Ich hoffe, dass allen klar ist, dass man sich nie zu 100% auf die Technik verlassen können wird. Aber auf den Straßen wird es garantiert sicherer, wenn der größte Teil der Autos automatisiert ist.
Auch wenn ich mit dir, vor allem was den letzten Absatz angeht, vollkommen übereinstimme, denke ich schon, dass man unterscheiden muss. Heute, zum jetzigen Stand der Technik, darf man sich nicht auf die Technik verlassen, deswegen ist auch vorgeschrieben, dass immer ein Fahrer (mMn auch für autonome Fahrzeuge) bereit sein muss einzugreifen. Das ist unausweichlich, solange sich die Technik noch in der frühen Entwicklungsphase befindet. Ist einmal Level 5 erreicht, muss man sich 100% auf die Technik verlassen. Level 5 bedeutet ja nichts anderes. Es muss nur jedem klar sein, dass auch dann sich nicht alle Unfälle vermeiden lassen. Ihre Anzahl wird nur signifikant geringer sein.
Zitat:
@derJan82 schrieb am 19. März 2018 um 19:55:01 Uhr:
Bei aller Tragik, lieber @chrisschorsch, die ich keinesfalls herunterspielen möchte, so können Unfälle passieren. Und natürlich ist das weder für den Verstorbenen noch für die Angehörigen ein Trost, aber: die Anzahl der Verkehrstoten durch automatisiertes Fahren halten sich zum Glück im weit unterdurchschnittlichen statistischen Rahmen in Bezug auf die zurückgelegten Kilometer.Ich bin total für 100% sichere Systeme. Momentan begnüge ich mich aber mit solchen, die statistisch sicherer sind als der Mensch.
Aussagen wie die Deine werden leider sehr schnell durch andere übernommen (insbesondere bestimmt durch Fachexperten wie Politiker) und das führt dann unterm Strich zu weniger Automatisierung und schlussendlich mehr Todesfällen. Der Weg geht über die sukzessive Einführung von Automatisierung und ich bin absolut sicher, dass von der aktuellen Entwicklung mehr Personen gerettet werden als dass es zu zusätzlichen Verkehrstoten kommt.
Ethisch mag mein Post etwas problematisch sein - zumal der Tote unbeteiligter Dritter war - aber auch dazu muss man im Rahmen einer sachlichen Diskussion stehen können.
Sollte das ganze natürlich durch Fahrlässigkeit verursacht worden sein, so sind die Verantwortlichen zur Rechenschaft zu ziehen. Aber bitte ohne technischen Stillstand.
Ich habe meine Sichtweise und meine starke Befürwortung für eine schnelle Entwicklung autonomer Systeme schon mehrmals hier angeführt, ich denke, dass es dafür keiner Wiederholung bedarf.
Ich bin aber dennoch der Meinung, und das scheint auch hier der Fall zu sein, dass man nach einem solch schweren Unfall nicht einfach weitermachen darf. Bevor es weitergeht muss geprüft werden, was schief gelaufen ist. Wenn der Mensch versagt hat, dann muss man Vorkehrungen treffen, wie das in Zukunft vermieden werden kann. Vielleicht muss ein autonomes Fahrzeug in der Entwiklungsphase auch deutlicher gekennzeichnet werden. Wie im Flugverkehr auch, muss eine Katastrophe dazu führen, dass die Systeme sicherer gemacht werden.
Eine Statistik darüber, inwiefern voll-autonome Fahrzeuge momentan sicherer sind als nicht-autonome, wäre aufgrund der geringen Fahrleistung mMn nicht aussagekräftig. Sobald diese Statistik tatsächlich aussagekräftig sein wird und für autonome Fahrzeuge sprechen wird, wird den Regulierern nichts anderes übrig bleiben als diese Technik freizugeben.
Du hast diesen Unfall ohne weitere Infos als Indikator dafür genommen, dass man sich „auf keinen Fall auf die Technik verlassen darf“. Und das obwohl offenbar (vieles ist ja nicht eindeutig) ein Sicherheitsfahrer an Board war. Bei einer solchen Aussage müssen wir IMHO einfach mal tief in uns gehen. Ein 100% funktionierendes System heisst eben nicht: keine Unfälle (leider!). Es heisst: keine Unfälle, wenn sich alle an die Regeln halten und nichts unvorhersehbares passiert (bspw. auch kein Defekt). Und das System sollte in jedem Fall so clever agieren wie ein guter Autofahrer.
Wenn du mich zitierst, dann bitte auch richtig. Ich schrieb oben "zum jetzigen Zeitpunkt...". Zum jetzigen Zeitpunkt befindet sich mMn die Technik in einem relativ frühen Entwicklungsstadium. Genau deswegen muss sich auch immer ein Sicherheitsfahrer am Bord befinden. Seine Aufgabe ist die Technik zu überwachen und einzugreifen, wenn er auch nur den kleinsten Zweifel hat. Er darf sich also zum jetzigen Zeitpunkt auf keinen Fall auf die Technik verlassen, sonst handelt er grob fahrlässig. Je weiter die Entwicklung voranschreitet, desto seltener wird es zu Situationen kommen, in denen er zweifelt und eingreift. Im Endstadium wird der Sicherheitsfahrer nie mehr eingreifen müssen und man wird schliesslich auf ihn vollständig verzichten können. Das alles wird niemals dazu führen, dass Unfälle zu 100% vermeiden werden, das dürfte wohl jedem klar sein. Aber das Vertrauen in die Technik muss dem jeweiligem Entwicklungsstand angepasst werden.
Zitat:
@chrisschorsch schrieb am 19. März 2018 um 21:05:19 Uhr:
Wenn du mich zitierst, dann bitte auch richtig. Ich schrieb oben "zum jetzigen Zeitpunkt...".
Das Zitat war korrekt - obwohl mit dem Handy abgetippt. Der Satz war nicht vollständig zitiert (auch im Zitationsstil erkennbar), aber ich denke wir wissen alle, dass du von heute und nicht vom Zustand in 10 Jahren sprichst. Trotzdem entschuldige ich mich natürlich dafür, sollte das jemand falsch verstanden haben.
Zitat:
@chrisschorsch schrieb am 19. März 2018 um 21:05:19 Uhr:
Zum jetzigen Zeitpunkt befindet sich mMn die Technik in einem relativ frühen Entwicklungsstadium.
Du schreibst hier mit jemandem, der niemals einen aktuellen Tesla Level 5 Autonomie fahren sieht - und auch kein Level 4. Darum geht es aber gar nicht. Ich halte nichts davon, dass man alles verteufelt, sobald etwas passiert. Es gibt keine 100% Sicherheit. Man weiss weder, ob der Autopilot den Fehler begangen hat noch, ob etwas kaputt gegangen ist oder sich die Person unberechenbar verhalten hat. Und solange man das nicht weiss sollte man sich auch dementsprechend vorsichtig ausdrücken.
Zitat:
@chrisschorsch schrieb am 19. März 2018 um 21:05:19 Uhr:
Genau deswegen muss sich auch immer ein Sicherheitsfahrer am Bord befinden. Seine Aufgabe ist die Technik zu überwachen und einzugreifen, wenn er auch nur den kleinsten Zweifel hat. Er darf sich also zum jetzigen Zeitpunkt auf keinen Fall auf die Technik verlassen, sonst handelt er grob fahrlässig.
Der Fall ist in den USA passiert. Dort gibt es meines Wissens soetwas wie "grobe" Fahrlässigkeit nicht, sondern nur negligence. Wenn die vier Elemente der (amerikanischen) Fahrlässigkeit erfüllt sind, ist es Fahrlässigkeit, sonst nicht. Zudem wissen wir auch hier überhaupt nichts über die Art des Fahrzeugs. So gibt es meines Wissens nach in Arziona (neben Kalifornien) Fahrzeuge, die auch ohne Sicherheitsfahrer zugelassen sind (man belehre mich bitte, falls ich das falsch in Erinnerung habe). Sollte dies in diesem Fall der Fall sein und wäre dennoch ein Sicherheitsfahrer an Board gewesen (wieso auch immer), wäre es schwer den erfoderlichen Faktor "Breach of duty" zu beweisen, da ein Verkehren des Fahrzeugs ja ohne den Fahrer möglich gewesen wäre. Bisher ist das für mich alles reine Spekulation und führt daher zu recht wenig.
Zitat:
@chrisschorsch schrieb am 19. März 2018 um 21:05:19 Uhr:
Je weiter die Entwicklung voranschreitet, desto seltener wird es zu Situationen kommen, in denen er zweifelt und eingreift. Im Endstadium wird der Sicherheitsfahrer nie mehr eingreifen müssen und man wird schliesslich auf ihn vollständig verzichten können.
Das amerikanische Gesicht sieht das offenbar schon in einigen Bundesstaaten vor - was IMHO verfrüht ist - aber darum geht es nichtg.
Zitat:
@chrisschorsch schrieb am 19. März 2018 um 21:05:19 Uhr:
Das alles wird niemals dazu führen, dass Unfälle zu 100% vermeiden werden, das dürfte wohl jedem klar sein. Aber das Vertrauen in die Technik muss dem jeweiligem Entwicklungsstand angepasst werden.
Absolut. Auch ich bin ein Mensch und habe weniger Vertrauen in einen Flugzeutautopiloten, dessen baugleiches Modell vor einer Woche mit einem anderen Flugzeug gecrashed ist.
Aber bei genauerer Überlegung weiss ich natürlich auch, dass es durchaus komplizierte Zusammenhänge geben kann, die zu diesem Absturz geführt haben und dass auch der menschliche Pilot die Mühle vielleicht nicht hätte in der Luft halten können. Gerade deshalb ist es so wichtig hier sachlich zu differenzieren und nicht vorschnell zu Urteilen. Denn unabhängig von meiner persönlichen Meinung (dass wir nicht noch lange nicht bei Level 5 sind) hören bei solchen Aufschreien meistens die falschen Personen zu - namentlich die Presse und Politiker. Und während die Presse mit reisserischen Schlagzeilen Geld verdienen muss und deshalb immer zu sehr absoluten Aussagen tendiert, halte ich die lieben Politiker oftmals für intellektuell nicht in der Lage das Ganze halbwegs sachlich zu bewerten (oder aber noch schlimmer: sie wollen einfach nicht).
Zitat:
@derJan82 schrieb am 19. März 2018 um 19:55:01 Uhr:
Bei aller Tragik, lieber @chrisschorsch, die ich keinesfalls herunterspielen möchte, so können Unfälle passieren. Und natürlich ist das weder für den Verstorbenen noch für die Angehörigen ein Trost, aber: die Anzahl der Verkehrstoten durch automatisiertes Fahren halten sich zum Glück im weit unterdurchschnittlichen statistischen Rahmen in Bezug auf die zurückgelegten Kilometer.
Gibt es dafür belastbare Quellen?
Zitat:
@Geri321go schrieb am 20. März 2018 um 06:56:08 Uhr:
Gibt es dafür belastbare Quellen?
1 Toter auf 2.598.264km bei den Bots in den USA laut Meldungen der Hersteller an das DMV.
Wie schaut es bei den menschlichen Fahrern aus?
Edit: Hab es doch noch gefunden: 7 Tote pro 1.000.000.000km.
https://de.statista.com/.../
Die Menschen sind noch in Führung. 😉
Bis das autonome Fahren bei uns kommt, werden noch etliche Jahre vergehen - wegen der Technik, aber auch wegen ethischer und rechtlicher Fragen.
Wobei klar ist, dass selbst der beste menschliche Fahrer oder das beste autonome System sämtliche Unfälle niemals zu 100% vermeiden können - außer alle Autos fahren nur noch Schrittgeschwindigkeit.
Vermutlich wird der Computer aber weniger Fehler machen als ein durchschnittlicher Fahrer, also eine Verbesserung der Verkehrssicherheit eintreten.
Zitat:
@Geri321go schrieb am 20. März 2018 um 06:56:08 Uhr:
Gibt es dafür belastbare Quellen?
Dazu gibt es diverse Quellen. Von 2017 gibt es dazu bspw. eine wissenschaftliche Veröffentlichung von Roland Siegwart mit den genauen Zahlen (bei Springer findest Du die). Auf frei zugänglichen Webseiten ist's da eher mau, weil die Statistiken in aller Regel national sind und der Strassenmix nicht berücksichtigt wird (und die meisten autonomen Fahrzeuge fahren in Ballungsbieten und nicht auf dem breiten Highway). Allerding kannst du den Herrn Siegwart einfach mal googlen (das habe ich gemacht, weil ich das Summary von ihm gesucht habe) und stösst dann bspw. auf https://wissenschaft-persoenlich.ch/roland-siegwart/ auf Aussagen wie
Zitat:
Wenn wir vergleichen, wie viele Kilometer autonome Autos bisher gefahren sind und wie viele Menschen dabei umgekommen sind, schneiden sie definitiv besser ab als menschliche Fahrer. Bald werden selbstfahrende Autos so sicher sein, dass wir uns umgekehrt fragen müssen: Dürfen Menschen überhaupt noch Autos steuern oder sind sie ein zu grosses Risiko?
Wichtig ist, dass wir auch hier fair sind und einerseits den Strassenmix vergleichen (Autobahnen sind sicherer als 30 Zonen), die Profile von einander abgrenzen (LKW/PKW/Bus) und uns auf der anderen Seite auch fragen: Wieso gibt es da vergleichsweise weniger tote? Eine Antwort auf die letzte Frage wird mit Sicherheit sein, dass ein autonomes Fahrzeug vergleichsweise vorsichtig operiert und eher langsam fährt, so dass mögliche Unfälle oftmals nicht gleich tötlich enden.
Von Google gab es - ebenfalls 2017 - auch einen interessanten Vortrag bei dem die Eingriffe detailliert ausgewertet wurden (finde ich leider gerade nicht). Bei den meisten notwendigen Eingriffen (bei Google) ging es darum, dass das Fahrzeug sich weigerte Linien zu überfahren (rechtlich korrekt), andere Fahrzeuge wegen des Sicherheitsabstandes nicht passieren wollte oder aber nicht in eine Kreuzung einfuhr, weil die Strasse nicht einsehbar genug war.
Ich sage nicht, dass die Zeit reif für autonomes Fahren ist. Aber ich bin ganz klar der Meinung, dass momentan recht gewissenhaft agiert wird und es ist natürlich dennoch tragisch, wenn es zu Unfällen kommt.
Zitat:
@MartinBru schrieb am 20. März 2018 um 08:01:28 Uhr:
Die Menschen sind noch in Führung. 😉
Solche Statistiken bringen nicht viel. Im Jahr 2015 gab es gemäss WHO weltweit 1,25 Mio Verkehrstote. Ich denke du siehst worauf ich hinaus möchte: Das Profil ist entscheidend. In Entwicklungsländern passiert viel mehr als in Industrieländern und innerhalb der einzelnen Länder passiert erheblich mehr in Städten als auf Autobahnen. Und genau das muss sauber auseinandergerechnet werden.
Im Extremfall kommt sonst die nächste Statistik und erklärt uns ohne Berücksichtigung der Laufleistung, dass nur 0,00008% der Verkehrstoten auf autonomes Fahren zurückzuführen sind. Das ist zwar richtig, hat aber kaum Aussagekraft. Eignet sich aber dennoch für eine Schlagzeile in Bild & Blick 😉