ForumTesla
  1. Startseite
  2. Forum
  3. Auto
  4. Tesla
  5. Tesla Autopilot vs. Systeme anderer Hersteller

Tesla Autopilot vs. Systeme anderer Hersteller

Tesla
Themenstarteram 28. Juli 2016 um 16:49

Sehr interessant: "The best or nothing" gegen den "Prügelknaben"

Klick

Beste Antwort im Thema
am 27. Februar 2020 um 8:36

Zitat:

@radio schrieb am 27. Februar 2020 um 06:51:50 Uhr:

............sei es durch Kinder, Ehefrau, mittleren Alterns oder mal wieder zu wenig geschlafen.

Dann solltest du dir eine Alternative zum fahren suchen.

Besonders wenn du zu wenig Schlaf hast. :)

3860 weitere Antworten
Ähnliche Themen
3860 Antworten

Zitat:

@DaimlerDriver schrieb am 23. April 2019 um 16:42:33 Uhr:

...

Einen echten L3 Autobahnassistenten, wie es @derJan82 schreibt, kann ich mir auch sehr gut vorstellen, vielleicht sogar schon im nächsten Jahr, nicht in D, vielleicht auch nur bei Stau.

Aber alles bis einschlieslich Level 4 ist doch inzwischen in der BRD erlaubt. Zumindest per Gesetz.

Level 3 ist für´n Popo. Was soll ein System, bei dem der geistig abwesende Fahrer mittels lautem Getöse in Sekundenbruchteilen aus seine Lethargie geweckt werden muss, um dann umgehend die Kontrolle zu übernehmen?

Das System müsste mindestens 5 Sekunden in die Zukunft blicken können, damit ein Fahrer, der gerade vor sich hin döst, rechtzeitig die Gefahrensituation erfassen und besser als die Maschine handeln könnte.

Das kann niemand und das will auch niemand. Im Grunde kann nach Level 2 nur Level 4 kommen. Im Silicon Valley arbeitet niemand an Level 3. Das machen nur die deutschen OEMs.

Zitat:

@Lewellyn schrieb am 23. April 2019 um 16:54:58 Uhr:

Im Grunde kann nach Level 2 nur Level 4 kommen.

Diese Frage habe ich über Stunden mit zwei BMW Softwareentwicklern (die nichts mit autonomen Fahren zu tun haben) mit einigen Bier an einer Hotelbar durchdiskutiert - also ein sehr akademisches Umfeld:

  • Level 2 ist akzeptiert. Niemand erwartet bspw. von einem Notbremsassistent, dass jede Situation erkannt wird. Viele Fahrer kennen die Fehlbremsungen und Fehlalarme aus persönlicher Erfahrung. Gerade die Fehlalarme sind für den Fahrer ein guter Hinweis dafür, dass die Systeme nicht perfekt sind. Wenn's aber knallt, liegt's beim Fahrer.
  • Wir waren uns im Grunde alle einig, dass Level 3 der erste Schritt ist, bei dem der Hersteller Farbe bekennen muss. Und das ist auch wichtig: Traut der Hersteller seinem System zu, dass es sicher fährt und kommt er ggfs. für Folgeschäden auf. Das mit den Sekundenbruchteilen ist übrigens explizit nicht das Ziel. Bitte einfach mal die Dokumente der Arbeitsgruppe ansehen.
  • Level 4 klingt zunächst ganz toll. Schliesslich geht man davon aus, dass das System seine Aufgabe bis zum Ende ausführen kann. Das ist erstmal auch richtig, denn das Backup System ist die Maschine, nicht der Mensch. Aber - und jetzt wird es kompliziert - es kann leider passieren, dass sich die Design Domain ungeplant ändert. Typisches Beispiel sind die aussergewöhnliche Wetterumstände, stark verschmutzt Fahrbahnen oder ein Unfall voraus, der von der Polizei über den Tankstellenparkplatz umfahren wird. In genau diesen Beispielen kann es sein, dass das Fahrzeug von einer Design Domain in einer nicht unterstützt Design Domain fällt (im Standard auch mit "Driving Mode" beschrieben). Was bleibt dem System nun übrig? Tja, nach Standard die "Minimized Risk Condition". Die wohl üblichste dürfte dabei wieder der Fallback auf den Fahrer sein. Oder das Fahrzeug beendet die Fahrt.
  • Selbst bei Level 5 gibt es Einschränkungen. Das mit dem "durchschnittlichen Fahrer" ist eine sehr schwammige Definition. Es muss ja im Grunde jedes Szenario unterstützt werden (gemäss Standard: unter jeder Fahrbahn und Umgebungsbedingung). Wenn der Förster jetzt autonom den Waldweg langgefahren ist und nun der Weg versperrt ist, müsste das Level 5 Fahrzeug so wie der durchschnittliche Fahrer entscheiden: Rückwärts zurück, Baum umfahren, kleine Äste überfahren. Wo zieht man da die Grenze? Ich kann mir das ohne Einschränkungen nicht vorstellen - wirklich nicht. Oder zumindest nicht in den nächsten 10 Jahren. Dass man einen Kriterienkatalog erfindet, der dann von den Fahrzeugen bewältigt wird: Klar. Aber wirklich Level 5? Ich denke leider nicht.

Wie dem auch sei: Level 2 bis 5 sind stetige Evolutionen. Es ist im Grunde genommen egal was das Ziel der Entwicklung ist. Wir werden noch lange ein Fallback brauchen (vielleicht per Touch und nicht per Lenkrad - keine Ahnung). Dabei spielt es auch keine Rolle wo was wie entwickelt wird. Ein System, dass Level 3 beherrscht, ist nicht so extrem weit von einem Level 2 System weg (zumindest nicht auf den ersten Blick). Level 3 und 4 sind auch nicht so weit auseinander. Der Fallback bei Level 4 kommt einfach erst mit einer Driving Mode Änderung. Level 4 und Level 5 unterscheiden sich dadurch, dass Level 5 überall funktionieren soll.

  1. Level 0: Nur der Fahrer
  2. Level 1: Fahrerunterstützung: Bspw. ABS, ASR, ESP & Co
  3. Level 2: Ausführung von Lenk- und Beschleunigungs- /Bremsvorgängen bei Überwachung durch den Fahrer in definierten Fahrmodi
  4. Level 3: Das System garantiert die Überwachung der Umgebung. Eigenverantwortliche Ausführung von Lenk- und Beschleunigungs- /Bremsvorgängen durch das System in definierten Fahrmodi mit Fallback auf den Fahrer
  5. Level 4: Das System garantiert die Überwachung der Umgebung. Eigenverantwortliche Ausführung von Lenk- und Beschleunigungs- /Bremsvorgängen durch das System in definierten Fahrmodi
  6. Level 5: Das System garantiert die Überwachung der Umgebung. Eigenverantwortliche Ausführung von Lenk- und Beschleunigungs- /Bremsvorgängen durch das System

Zitat:

@316!RHCP schrieb am 23. April 2019 um 07:27:10 Uhr:

Irgendwie hab ich das Gefühl das war nur ein Ablenkungsmanöver. Ich kann nichts bahnbrechendes erkennen.

Das war sicher kein Ablenkungsmanöver, die Quartalszahlen mit einem erwartbaren Minus (damit das jetzt schon mal gesagt wurde) kommen so oder so und die Medien werden sich so oder so drauf stürzen.

Wenn du da wirklich nichts Faszinierendes gestern in der Präsentation erkennen konntest, dann vielleicht nochmal anschauen, insbesondere den Teil mit dem Fleet-Learning, dem Shadow Mode und der Bildinterpretation - und dann mal mit dem vergleichen, wie da die Konkurrenz rangeht und wie die ihre Datengrundlagen generieren.

Zitat:

@derJan82 schrieb am 23. April 2019 um 08:50:50 Uhr:

Zudem fand ich interessant, dass die 3D Kamera nicht zum schätzen der Distanzen genutzt werden, sondern die Fahrzeugtypen gelernt und per Radar eingmessen werden. Das heisst aber auch: Das Abschätzen von Distanzen zu stehenden Objekten funktioniert nur bei bekannten Objekten oder Bezugspunkten. Wenn die Tesla AI keinen Elefanten auf dem Highway kennt, wird's interessant.

Hm, in der Präsentation wurde aber auch an einer Stelle (ich meine es war die Antwort auf eine Frage) gesagt, dass das Fahrzeug auch mit nicht-eingelernten Situationen/Objekten umgehen kann...nur findet dann wahrscheinlich eine andere Art der Analyse statt (so was wie eine "Standardanalyse"?) als über die gelernten Bilder. Bei einem Elefant wär's ja auch eher so, dass das Radar diesen als zu großes Objekt erkennen würde. Würde mich außerdem nicht wundern, wenn es auch schon ein paar Elefanten gab, die den Fahrzeugen vor die Linse gelaufen sind, wenn ich mir da so die Bilder anschaue, die in der Präsentation gezeigt wurden, siehe Anhang. :D

Zitat:

@Geri321go schrieb am 23. April 2019 um 07:03:40 Uhr:

D.h. FSD ist nach wie vor nicht fertig? Wird aber ab 1. Mai erheblich teurer. Oder kam da noch etwas?

"Fertig" (feature complete) im Sinne der Entwicklung Ende des Jahres laut Angaben in der Präsentation, danach wird aus meiner Sicht vieles an den rechtlichen Bestimmungen der einzelnen Märkte hängen. Würde mich nicht wundern, wenn bspw. Kalifornien eine passende Verordnung beschließt, mit der im größeren Feldversuch die Verwendung (erst mal) erlaubt wird.

Dass das Ganze ab 1. Mai teurer wird passt zu der Aussage in der Präsentation, dass erste Features, die über den neuen FSD-Computer laufen, bei den entsprechend ausgestatteten Fahrzeugen ab Mai nach und nach implementiert werden sollen - sofern das eben innerhalb der bestehenden Gesetzgebung möglich ist. Deshalb wäre es auch unseriös gewesen, wenn bestimmte Zeitpunkte genannt worden wären, wann welcher Teil (z.B. keine Lenkradberührungen mehr notwendig,...) eingeführt wird...da muss der Gesetzgeber eben auch mitspielen.

Animals on AP

Zitat:

@derJan82 schrieb am 23. April 2019 um 17:23:38 Uhr:

...

Selbst bei Level 5 gibt es Einschränkungen. Das mit dem "durchschnittlichen Fahrer" ist eine sehr schwammige Definition. Es muss ja im Grunde jedes Szenario unterstützt werden (gemäss Standard: unter jeder Fahrbahn und Umgebungsbedingung). Wenn der Förster jetzt autonom den Waldweg langgefahren ist und nun der Weg versperrt ist, müsste das Level 5 Fahrzeug so wie der durchschnittliche Fahrer entscheiden: Rückwärts zurück, Baum umfahren, kleine Äste überfahren. Wo zieht man da die Grenze? Ich kann mir das ohne Einschränkungen nicht vorstellen - wirklich nicht. Oder zumindest nicht in den nächsten 10 Jahren. Dass man einen Kriterienkatalog erfindet, der dann von den Fahrzeugen bewältigt wird: Klar. Aber wirklich Level 5? Ich denke leider nicht.

...

Aber auch da gibt es bereits jetzt schon genug Menschen, die jetzt schon nicht in der Lage sind, Handzeichen von Verkehrspolizisten richtig zu deuten. Das stelle ich mir dann allerdings lustig vor, wie der Verkehspolizist dann dem autonomen Auto sagt, daß es über die Tankstelle fahren soll.

Aber die Idee, daß bei kritischen Situationen das Auto Vorschläge auf dem Monitor macht und der Nutzer dann das für ihn beste/logischste wählt, klingt ziemlich gut.

Das größte Problem bei der Entwicklung von Level 3/4/5 Systemen sehe ich eigentlich darin, dass man noch nicht-autonome Fahrzeuge im Straßenverkehr berücksichtigen muss.

Das Ganze wäre um einiges einfacher, wenn es bspw. nur noch Fahrzeuge ab Level 3 geben würde...die paar Fußgänger, Fahrradfahrer und Tiere wären dann weniger das Problem (werden mit maximalem Schutzstatus einprogrammiert - zumindest die ab Größe Katze ;)). Bei hingegen völlig abwegigen Situationen, die sich nur ein Mensch ausdenken kann - z.B. bei einem bewussten Falschfahrer - da will ich eigentlich nicht in einem Auto ohne Lenkrad sitzen, denn richtiges Ausweichen und Abschätzung der Möglichkeiten (z.B. bewusstes Lenken in die Leitplanke um einem Frontalzusammenstoß zu umgehen als einfach nur autonom anhalten/zart ausweichen), das sind die wirklich schwierigen Situationen.

Deshalb bezweifle ich, dass es bald rechtlich abgesichert kommen wird, ohne Führerschein in ein Fahrzeug ohne Pedale/Lenkrad einsteigen zu können - auch wenn es technisch vielleicht möglich wäre.

Zitat:

@ballex schrieb am 23. April 2019 um 18:05:20 Uhr:

Hm, in der Präsentation wurde aber auch an einer Stelle (ich meine es war die Antwort auf eine Frage) gesagt, dass das Fahrzeug auch mit nicht-eingelernten Situationen/Objekten umgehen kann...nur findet dann wahrscheinlich eine andere Art der Analyse statt (so was wie eine "Standardanalyse"?) als über die gelernten Bilder.

Natürlich wird man sich Gedanken darüber machen was passiert, wenn etwas unvorgesehenes/neues passiert. Das ist wahrscheinlich der Kernjob von 3/4 des Teams.

Die Frage ist nur: Wie zuverlässig funktioniert eine Bestimmung des Abstandes und eine Einordnung von Grössen, wenn zu wenig bekannte Referenzpunkte vorhanden sind. Dass man die 3D Kamera nicht für Distanzen verwendet, habe ich so nicht gedacht. Der Grund scheint ja zu sein, dass das Radar genauer ist. Ein Radar gibt's allerdings nur vorne. Ob die Ultraschallsensoren ähnlich verwendet werden können, wurde meines Wissens nicht gesagt. Und das Radar arbeitet am besten mit sich bewegenden Objekten. Stehende Objekte wären eher was für Laser - die Elon nur im Weltraum mag.

Zitat:

@ballex schrieb am 23. April 2019 um 18:05:20 Uhr:

Deshalb wäre es auch unseriös gewesen, wenn bestimmte Zeitpunkte genannt worden wären, wann welcher Teil (z.B. keine Lenkradberührungen mehr notwendig,...) eingeführt wird...da muss der Gesetzgeber eben auch mitspielen.

Naja, man hätte aber sagen können, ab wann man gedenkt mit gewissen Funktionen bereit für den Markt zu sein - unabhängig von der Zulassung.

Abstandserkennung nach Hinten erfolgt rein auf Grund der Größe des Objekts auf dem Bild. Je kleiner das Auto auf dem Bild desto weiter weg. Nach vorn wird Radar verwendet, damit man nicht wieder in einen Anhänger mit einem Landschaftsfoto drauf fährt. LiDAR ist einfach zu teuer, deswegen setzt er es nicht ein.

Zitat:

@derJan82 schrieb am 23. April 2019 um 18:38:51 Uhr:

Zitat:

@ballex schrieb am 23. April 2019 um 18:05:20 Uhr:

Deshalb wäre es auch unseriös gewesen, wenn bestimmte Zeitpunkte genannt worden wären, wann welcher Teil (z.B. keine Lenkradberührungen mehr notwendig,...) eingeführt wird...da muss der Gesetzgeber eben auch mitspielen.

Naja, man hätte aber sagen können, ab wann man gedenkt mit gewissen Funktionen bereit für den Markt zu sein - unabhängig von der Zulassung.

Letzteres würde den Kunden dann aber auch nichts bringen, wenn's danach weiter an der Zulassung hängt - höchstens den Investoren zur Abschätzung, wo man im Vergleich zur Konkurrenz steht. Ich denke man ist mittlerweile vorsichtiger geworden mit "ab da verfügbar" Aussagen...

Zitat:

@derJan82 schrieb am 23. April 2019 um 18:38:51 Uhr:

Zitat:

@ballex schrieb am 23. April 2019 um 18:05:20 Uhr:

Hm, in der Präsentation wurde aber auch an einer Stelle (ich meine es war die Antwort auf eine Frage) gesagt, dass das Fahrzeug auch mit nicht-eingelernten Situationen/Objekten umgehen kann...nur findet dann wahrscheinlich eine andere Art der Analyse statt (so was wie eine "Standardanalyse"?) als über die gelernten Bilder.

Natürlich wird man sich Gedanken darüber machen was passiert, wenn etwas unvorgesehenes/neues passiert. Das ist wahrscheinlich der Kernjob von 3/4 des Teams.

Die Frage ist nur: Wie zuverlässig funktioniert eine Bestimmung des Abstandes und eine Einordnung von Grössen, wenn zu wenig bekannte Referenzpunkte vorhanden sind. Dass man die 3D Kamera nicht für Distanzen verwendet, habe ich so nicht gedacht. Der Grund scheint ja zu sein, dass das Radar genauer ist. Ein Radar gibt's allerdings nur vorne. Ob die Ultraschallsensoren ähnlich verwendet werden können, wurde meines Wissens nicht gesagt. Und das Radar arbeitet am besten mit sich bewegenden Objekten. Stehende Objekte wären eher was für Laser - die Elon nur im Weltraum mag.

Dazu kann ich ehrlich gesagt nicht viel mehr sagen, dafür weiß ich zu wenig über Bildanalyse und die verwendete Technik. Bei der Erklärung hier habe ich es allerdings so verstanden, dass die Kameras, die das 3D-Bild erzeugen, durchaus dadurch auch Entfernungen berechnen können: https://youtu.be/Ucp0TTmvqOE?t=8324

Oder willst du auf was anderes hinaus?

Danach wird dann ja nochmal darauf eingegangen, wie über die Kameras der Abstand gemessen wird:

https://youtu.be/Ucp0TTmvqOE?t=8479

Der Radar und die Ultraschallsensoren unterstützen das NN beim Lernen / Labeln der Distanzen. (Verifikation)

EDIT: Zusätzlich zu den Kameras.

Ist es nicht so, dass die Radardistanz verwendet wird, um die Grösse das Fahrzeugs zu ermitteln und zu erlernen? Ultraschall - sagen wir mal mit 5 Meter Reichweite im Mittel - bringt da IMHO eher wenig. Die Flächen des Fahrzeugs sind im Vergleich zur Entfernung wahrscheinlich so schräg, dass da wenig lernbares rauskommt. Das ist ja eben kein Laser, der punktgenau messen kann. Mit den Seitenkameras können natürlich die Seitenflächen vermessen werden und mittels der Radarmessung kombiniert werden (nachdem das Fahrzeug von hinten per Radar gemessen wurde). Ultraschall hat wirklich Vorteile bei der Erkennung von Hindernissen. Total exakt ist das aber nicht - der Fehler verstärkt sich in der Extrapolation durch die geringe Reichweite.

 

Für den Fall der wirklichen Vermessung ist ein Laser genauer (punktgenauer) und natürlich reichweitenstärker. Er deckt quasi beliebige Entfernungen ab (anders als Radar und Ultraschall). Kostet natürlich und durchdringt erheblich schlechter als Radar. Laser ist also eher eine kostspielige Ergänzung.

 

Wäre dieses blöde Vakuum nicht, hätte Elon der Pfennigfuchser wahrscheinlich auch den Drachen mit 2 Ultraschallsensoren auf Tour geschickt. Unterschiedliche Stromquellen natürlich :D

am 23. April 2019 um 18:29

Hier ein Video der autonomen Fährt.

https://m.youtube.com/watch?v=tlThdr3O5Qo

Oh geil. Also ich will das unbedingt probieren.

Die Teslas haben keine 3D oder Stereo-Kameras. Es geht darum aus einem Bewegtbild Entfernungen zu berechnen.

Ich habe gelesen, dass aus der Hauptfeld und der Weitwinkelkamera sowie aus der Hauptfeld und der Telekamera jeweils ein 3D Bild berechnet werden kann. Ist das nicht korrekt?

"Kann" stimmt sicher, denn können tut man vieles. ;) Ob es gemacht wird, weiß wohl nur Tesla.

P.S. Richtig unheimlich wäre, wenn die AI das von sich aus machen würde, ohne dass das jemals wer programmiert hätte, weil sie draufgekommen ist, dass das eine gute Strategie ist.

Deine Antwort
Ähnliche Themen
  1. Startseite
  2. Forum
  3. Auto
  4. Tesla
  5. Tesla Autopilot vs. Systeme anderer Hersteller