ForumTesla
  1. Startseite
  2. Forum
  3. Auto
  4. Tesla
  5. Tesla Autopilot verhindert Unfall

Tesla Autopilot verhindert Unfall

Tesla
Themenstarteram 20. April 2016 um 8:54

Interessante Erfahrung eines Tesla-Fahrers. Sein Model S weicht im Autopilot-Modus einem Truck aus, der überraschend die Spur wechselt:

Klick

Beste Antwort im Thema
Themenstarteram 20. April 2016 um 8:54

Interessante Erfahrung eines Tesla-Fahrers. Sein Model S weicht im Autopilot-Modus einem Truck aus, der überraschend die Spur wechselt:

Klick

61 weitere Antworten
Ähnliche Themen
61 Antworten

Zitat:

@MartinBru schrieb am 8. Oktober 2016 um 13:02:49 Uhr:

Zitat:

@jukkarin schrieb am 8. Oktober 2016 um 12:27:29 Uhr:

Ich bin mir sicher, dass die deutsche Autobauer hervorragende Elektroautos bauen werden, wie auch hervorragende Assistentensystemen, wenn die Zeit dafür reif ist.

Und wer sagt wann die Zeit reif ist? Wie soll man praktische Erfahrungen sammeln, wenn man nicht mal damit beginnt echte Messwerte in der echten Welt zu sammeln?

Glaubst du dass es heute ESP gäbe, wenn davor nicht mehrere Generationen ABS im Einsatz gewesen wären?

Natürlich muss man auch mal mit Level 2 Autopiloten beginnen, damit irgendwann Level 5 funktioniert.

Die Zeit ist reif, wenn die Technologie weiter genug entwickelt wird. Wenn es um Elektroautos geht, müssen die Batterien effektiver werden, so dass eine Businesslimousine keine 2400 Kg wiegen muss

Und wenn es um selbstfahrende Autos geht, müssen die Rechner noch mehr Kapazität haben, wie die Kameras und andere Sensoren auch.

Diese werden in Labors entwickelt, ohne Menschenproben im Verkehr zu riskieren

Jukka

Zitat:

@jukkarin schrieb am 8. Oktober 2016 um 13:07:52 Uhr:

Diese werden in Labors entwickelt, ohne Menschenproben im Verkehr zu riskieren

Alles klar, dann forsche mal weiter am Warpdrive für den Trip in die Nachbargalaxie, während der Rest von uns erstmal die Marsbasis baut. ;)

Wer hat die Systeme + Updates eigentlich immer für die Straße freigegeben?

Den Punkt der relativen Häufigkeit an Unfällen von jukkarin finde ich ziemlich gut: Würden absolut mehr Teslas herumfahren, wäre das schon längst gestoppt worden.

Langfristig (innerhalb der nächsten Jahre) werden richtige Autopilot-Systeme auf jeden Fall kommen, die dann den Namen auch verdient haben und nicht nur ein Verkaufsnamen der Marketing-Abteilung sind.

Nur versucht eben Tesla mit möglichst wenigen Sensoren und möglichst viel Software alles auszumerzen - und wenn etwas nicht passt? Dann wird eben geschwind eine Bedingung geändert, das Update verteilt und anschließend geschaut, was passiert.

Zitat:

@Max_XCV schrieb am 8. Oktober 2016 um 14:49:16 Uhr:

Den Punkt der relativen Häufigkeit an Unfällen von jukkarin finde ich ziemlich gut: Würden absolut mehr Teslas herumfahren, wäre das schon längst gestoppt worden.

Die Autopilot-Tesla sind am 25. Mai schon 100 Millionen Meilen gefahren, also 160 Millionen Kilometer.

Und es werden täglich mehr Fahrzeuge und mehr Kilometer.

http://teslamag.de/news/tesla-kunden-millionen-meilen-autopiloten-8755

Dagegen sind die paar Unfälle doch ein Tropfen auf den heißen Stein.

Es fällt nur auf, weil zu jedem Unfall ein Beitrag geschrieben wird.

Ob in der gleichen Zeit zigfach S-Klassen (die die gleiche Technik nutzen) verunglückt sind interessiert hier niemanden.

Siehe auch das Gutachten, total einseitig!

am 21. Oktober 2016 um 12:57

Zitat:

@Geri321go schrieb am 20. April 2016 um 10:54:37 Uhr:

Interessante Erfahrung eines Tesla-Fahrers. Sein Model S weicht im Autopilot-Modus einem Truck aus, der überraschend die Spur wechselt:

Klick

Sehr interessant. Das wusste ich nicht!

Wer rechts überholt und im toten Winkel fährt der braucht sich nicht zu wundern wenn es kracht.

Man sieht hier nicht einen besonders gut funktionierenden Autopiloten, sondern einen mit Level 2 Funktionalität, wo der Fahrer schon vorher hätte eingreifen müssen.

Auch wenn in den USA rechts überholen erlaubt ist, wäre ein erfahrener und aufmerksamer menschlicher Fahrer gar nicht in diese Gefahr gekommen.

Stop Emil.

Der Tesla hat nicht rechts überholt, wie kommst du darauf?

Dort kamen 2 "Bundesstraßen" zusammen.

Der Tesla fuhr auf seiner Spur und kam von der rechten Bundesstraße.

Der Transporter kam von der ganz linken Spur auf der linken Bundesstraße.

Er wechselte von ganz links auf die ganz rechte Spur ohne auf den Verkehr neben sich zu achten.

Dem Teslafahrer und dem Assistenzsystem ist in em Fall nichts vor zu werfen.

Hier nochmal das Video.

https://www.youtube.com/watch?v=9I5rraWJq6E

Ab Sekunde 1 sieht man den Transporter auf der ganz linken Spur.

Bei Sekunde 19 enden die doppelt durchezogenen Striche und der Transporter schert sofort rüber.

2 Sekunden später ist er schon auf Höhe des Tesla.

Tut mir leid, aber das sehe ich völlig anders.

Wie gesagt, ein aufmerksamer Fahrer hätte den Verkehr links von sich beobachtet und erwartet dass Fahrzeuge von der anderen Straße die eigene Fahrspur möglicherweise queren, und sich so positioniert dass diese Fahrzeug problemlos die eigene Spur queren können.

Um Unfälle im Straßenverkehr zu vermeiden genügt es nicht sich sklavisch an die Regeln zu halten, zu glauben dass sich Andere auch daran halten, und dann auf sein Recht ungestört auf seiner Spur weiter zu fahren, zu beharren.

Es muss das Verhalten anderer Verkehrsteilnehmer antizipiert werden, so dass gefährliche Situation schon im Voraus entschärft werden. So können Fehler anderer Verkehrsteilnehmer durch eigenes Verhalten ausgeglichen werden. Das ist schon seit geraumer Zeit in intensives Forschungsthema bei den meisten Herstellern, um Zeit für eine angemessene Reaktion zu gewinnen und auch "False Positives" bei Notbremsungen zu vermeiden.

Einem Level 2 System wie beim AP1 fehlen dazu in der Regel die Sensoren für die Umfelderkennung und das Tracking der Spuren anderer Verkehrsteilnehmer. Die Ultraschallsensoren reichen nur ein paar Meter und deshalb kann der AP erst im letzten Moment ausweichen.

Gerade das Antizipieren des Verhaltens anderer Verkehrsteilnehmer ist eine Stärke der Menschen. In Ländern wo die Verkehrsregeln nicht 100 % eingehalten werden, funktioniert der Verkehr hauptsächlich durch solches unbewusstes Erkennung von Situationen, und einer passenden Reaktion. Viele Fahrer mit langjähriger Erfahrung hatten sicher schon mal ähnliche Situationen wo Fehler anderer ausgeglichen wurden.

Dies ist wieder ein Beispiel dafür wie sich Leute durch eine solche Funktion mit der Zeit einlullen lassen und die Überwachung des Verkehrs um sich herum immer mehr reduzieren. Dies ist auch schon mit einer Vielzahl von Simulatorversuchen nachgewiesen worden.

Ein ständiges Beharren auf sein Recht hätte fatale Folgen. Auf dem Grabstein könnte dann auch stehen:

Er starb, weil der AP nur die Verkehrsregeln kannte.

Ich bin jetzt schon gespannt wie der AP2 mit voller autonomer Funktionalität die Antizipation und auch die Kommunikation über den Blickkontakt hin bekommen wird. :rolleyes:

Fortsetzung aus dem Mobileye Thread.

Zitat:

Du schreibst doch selbst, dass es ausreicht, wenn der Computer weniger Fehler macht, als ein Mensch. Zeige mir einen Menschen, der auf diese niedrige Fehlerrate kommt. Bei Menschen sind mindestens 1 von 100 Entscheidungen falsch, alleine schon deshalb, weil er viel weniger Informationen zur Verfügung hat und verarbeiten kann wie eine Maschine. Oder wer hat schon permanenten Rundumblick ohne toten Winkeln?

Mehr Informationen bedeuten nicht notwendigerweise ein besseres Ergebnis. Die überwiegende Information die von 8 Kameras, 12 Ultraschallsensoren und dem Radar kommen ist völlig überflüssig für das Fahren. Der entscheidende Punkt ist dass die relevanten Daten heraus gefiltert werden. Zweifellos reichen doch die Sensoren eines Menschen, zusammen mit Hilfsmitteln wie Spiegel dazu aus dass trotz allem relativ sicher gefahren wird, so dass in D nur alle etwa 300.000 Fahrkilometer ein Unfall passiert.

Zitat:

Weiters ist deine Schlussfolgerung falsch, dass gleich jede Fehlentscheidung zu einem Unfall führt. Oder glaubst du wirklich, dass ein System 100x pro Sekunde über Leben und Tod entscheidet?

Natürlich nicht, sondern wie ich schrieb gibt es eine gewisse Wahrscheinlichkeit für eine Fehlentscheidung. Diese könnte z.B. dazu führen dass das System eine Aktion auslöst, die dann am Schluss zu einem Unfall führt. Hier ist dann die Frage wie gut das System in den folgenden Takten etwaige Fehler wieder heilen kann. Genau hier ist der Punkt wo man durch konventionelle Algorithmen eine Bewertung/Filterung vornehmen muss um extreme Ausreißer zu verhindern.

Hier das Thema aus einem ähnlichen Blickwinkel:

Hier ist eine interessante Analyse zum Stand des autonomen Fahrens des Tesla Prototyps im Vergleich zu anderen Fahrzeugen, die in Californien getestet wurden, zu finden.

Es wurden dabei aus dem Video und dem Bericht des California DMV ermittelt wie viele Meilen im Mittel zwischen Eingriffen durch den Fahrer lagen. Die Werte wurden von mir grob aus der dargestellten Graphik geschätzt:

Tesla: ca. 1 Meile

Bosch: ca 1.5 Meilen

Mercedes: ca 2 Meilen

Volkswagen: ca. 10 Meilen

Nissan: ca 12 Meilen

Delphi: ca. 60 Meilen

Google: ca. 2800 Meilen

Zitat:

So is Google close? Is Tesla close? How do humans do anyway?

If we consider an accident to be a "human disengagement" and that a disengagement in an autonomous car would lead to an accident without human intervention. If we further consider that humans have around 4 accidents per million miles (1 "disengagement" per each 250,000 miles), then, Google is ~2 orders of magnitude (~100x) worse than humans.

Tesla? Tesla is ~100,000x, or ~5 orders of magnitude, worse than humans. The problem here, is that humans are incredibly proficient at this driving thing. Machines just won't have to be 99% or 99.9% or 99.99% autonomous. They'll have to go over and beyond 99.9996% autonomous.

Es werden auch die Probleme mit dem Ansatz den nVidia/Tesla jetzt gewählt haben gut beschrieben:

Zitat:

Learning holistically makes for a much faster ramp in producing initial prototypes with decent performance. The code broadly remains unchanged and simply improves performance as it gets more training data. It remains to be seen if learning holistically can exceed the performance attained by dividing the task into sub-tasks and learning those (and right now, it doesn't). This is so because the machine lacks actual comprehension of the task at hand, and thus while it does generalize part of the driving task, it likely can't generalize it all.

There will be problems with this process. Namely, it won't be known where the learning will simply stop. Thus, the reliance on this method to go towards full autonomy is entirely speculative and unlikely to happen without severe changes to the entire strategy. The bar to be cleared is extremely high, and the learning process is likely to stop before that bar is cleared. Elon Musk is betting that additional training miles will always deliver improvement, and this is not a certainty - there is such a thing as overtraining.

Zusammenfassung:

Zitat:

Even the best of those projects, Google's, is arguably still 2 orders of magnitude away from a human driver. Tesla's is at least 5 orders of magnitude away and is 1000x worse than Google's effort.

Zitat:

@egn schrieb am 25. Oktober 2016 um 07:41:28 Uhr:

Mehr Informationen bedeuten nicht notwendigerweise ein besseres Ergebnis. Die überwiegende Information die von 8 Kameras, 12 Ultraschallsensoren und dem Radar kommen ist völlig überflüssig für das Fahren.

Wie jetzt? Zurst wurde Tesla kritisiert, weil sie im Vergleich zu Mercedes und anderen weniger Sensoren hatten und viel über die Software machten und jetzt sind es auf einmal zu viele Sensoren? Schön langsam wird es aber lächerlich. :D

Zitat:

@egn schrieb am 25. Oktober 2016 um 07:41:28 Uhr:

Hier das Thema aus einem ähnlichen Blickwinkel:

Hier ist eine interessante Analyse zum Stand des autonomen Fahrens des Tesla Prototyps im Vergleich zu anderen Fahrzeugen, die in Californien getestet wurden, zu finden.

Es wurden dabei aus dem Video und dem Bericht des California DMV ermittelt wie viele Meilen im Mittel zwischen Eingriffen durch den Fahrer lagen. Die Werte wurden von mir grob aus der dargestellten Graphik geschätzt:

Tesla: ca. 1 Meile

Bosch: ca 1.5 Meilen

Mercedes: ca 2 Meilen

Volkswagen: ca. 10 Meilen

Nissan: ca 12 Meilen

Delphi: ca. 60 Meilen

Google: ca. 2800 Meilen

Der Bericht/Test ist von Dezember 2015.

Viele Test`s die später erfolgten zeigen aber ein ganz anderes Bild.

1. http://www.thedrive.com/.../...edes-benz-e-class-vs-2017-tesla-model-s

2. http://www.autofil.no/936897/hands-off

Drei Routen zusammen, die Anzahl der Eingriffe und die Anzahl der Warnungen, das Lenkrad zu halten:

Mercedes Eingriffe: 31

Tesla Eingriffe: 3

Mercedes Warnungen: 32

Tesla Warnungen: 16

3. http://www.motortrend.com/.../

Beide Routen zusammen, die Anzahl der Eingriffe, weil der Wagen die Route verlässt, oder der Fahrer sich unwohl fühl:

Hyundai: 289 Eingriffe

Mercedes: 253 Eingriffe

Tesla: 34 Eingriffe

Wie passt das zusammen?

Zitat:

@MartinBru schrieb am 25. Oktober 2016 um 08:23:16 Uhr:

Zitat:

@egn schrieb am 25. Oktober 2016 um 07:41:28 Uhr:

Mehr Informationen bedeuten nicht notwendigerweise ein besseres Ergebnis. Die überwiegende Information die von 8 Kameras, 12 Ultraschallsensoren und dem Radar kommen ist völlig überflüssig für das Fahren.

Wie jetzt? Zurst wurde Tesla kritisiert, weil sie im Vergleich zu Mercedes und anderen weniger Sensoren hatten und viel über die Software machten und jetzt sind es auf einmal zu viele Sensoren? Schön langsam wird es aber lächerlich. :D

Stimmt, jetzt wird es lächerlich. :rolleyes:

Du hast die Behauptung aufgestellt dass ein Autopilot schon alleine wegen der vielen Sensoren besser ist als der Mensch. Und das stimmt eben nicht, da die Sensoren zwar eine Menge Daten und eine Rundumsicht liefern, für die jeweilige Fahrsituation aber nur ein Bruchteil davon relevant ist. Genau diesen relevanten Teil können die menschlichen Sensoren auch erfassen, in dem sich der Mensch auf den jeweiligen relevanten Teil konzentriert, seine Sensoren in die jeweilige Richtung bewegt, Hilfsmittel wie Spiegel benutzt und den Focus einstellt.

Und dass mehr Sensoren die in alle Richtung das Umfeld erfassen überhaupt die Grundlage für autonomes Fahren bilden, das ist doch unbestritten. Aber man muss auch was aus den Daten machen können und die für die Fahraufgabe wichtigen Daten wie der Mensch extrahieren, daraus die nötigen Aktionen planen und auslösen können.

Zitat:

Wie passt das zusammen?

Gar nicht, weil Du Äpfel mit Birnen vergleichst.

In den Berichten vom DMV geht es um Daten der einzelnen Hersteller zum autonomen Fahren (Level 4), während es in den Vergleichstests um Assistenzsysteme (Level 2) geht.

Davon abgesehen sind die im Zusammenhang mit AP2.0 sowieso irrelevant, da Tesla wieder von Null anfangen muss. Es wird eine ganze Zeit lang dauern bis sie mit dem völlig neuen Ansatz wieder auf dem Niveau von AP1 sind, wenn überhaupt. :rolleyes:

Zitat:

@egn schrieb am 25. Oktober 2016 um 09:05:47 Uhr:

Zitat:

Wie passt das zusammen?

Gar nicht, weil Du Äpfel mit Birnen vergleichst.

In den Berichten vom DMV geht es um Daten der einzelnen Hersteller zum autonomen Fahren (Level 4), während es in den Vergleichstests um Assistenzsysteme (Level 2) geht.

Davon abgesehen sind die im Zusammenhang mit AP2.0 sowieso irrelevant, da Tesla wieder von Null anfangen muss. Es wird eine ganze Zeit lang dauern bis sie mit dem völlig neuen Ansatz wieder auf dem Niveau von AP1 sind, wenn überhaupt. :rolleyes:

Wenn es um Level 4 geht, woher kommen die Daten von Tesla?

Die kommen aus dem "Beweis"-Film von Tesla. Die Länge der Strecke ist etwa 6,8 Meilen und es sind 6 Schnitte darin die darauf hindeuten dass an dieser Stelle ein Eingriff durch den Fahrer erfolgte. Selbst wenn überhaupt keine Aktionen erfolgt sind kann man als außen stehender Betrachter aus dem Film dann nur annehmen, dass das Fahrzeug sich maximal 6,8 Meilen ohne Eingriff bewegt hat.

Interessant und offiziell wird es wenn Tesla dann am Jahreende seine Zahlen an den DMV berichtet. Dann kann man ablesen wie viele echte Straßenkilometer gefahren wurden, und wie oft ein Eingriff durch den Fahrer erfolgte.

Hier sind die Zahlen der anderen Hersteller zu finden.

Hier ein Artikel der beschreibt wie das Lernen bei nVidia funktioniert.

Oder man kann als außen stehender Betrachter aus dem Film annehmen, dass das Fahrzeug sich problemlos 6,8 Meilen ohne Eingriff bewegt hat.

Immer eine Sichtweise.

Aus Schnitten in einem Video anzunehmen, dass dort Eingriffe getätigt worden sind, sehr fragwürdig.

Wenn das die Art der Faktensammlung ist.

Deine Antwort
Ähnliche Themen
  1. Startseite
  2. Forum
  3. Auto
  4. Tesla
  5. Tesla Autopilot verhindert Unfall