ForumTesla
  1. Startseite
  2. Forum
  3. Auto
  4. Tesla
  5. Mobile Eye trennt sich von Tesla

Mobile Eye trennt sich von Tesla

Tesla
Themenstarteram 28. Juli 2016 um 9:23

Tesla verliert offensichtlich seinen wichtigsten Zulieferer im Bereich des assitierten/autonomen Fahrens:

http://www.welt.de/.../...will-nichts-mehr-mit-Tesla-zu-tun-haben.html

Stellt sich die Frage, ob Mobile Eye wirklich mit der Zusammenarbeit mit Tesla unzufrieden war - oder ob BMW einfach der dickere Fisch ist...

Beste Antwort im Thema

Wenn das Wetter gut ist und es keinen Ausfall gibt dann reicht das vielleicht.

Aber mit absoluter Sicherheit kann das heute niemand wissen, weil es bisher noch nie so ein System gab, das eine so umfassende Aufgabe lösen kann, und deshalb die Erfahrung fehlt.

Einzelne Teilaufgaben wie Bilderkennung und Mustererkennung kann man heute sehr gut mit DNNs lösen, aber jede dieser Aufgaben benötigt eine spezifische Architektur des DNN. Die Optimierung ist viel Try-and-Error.

Ich habe schon auf einigen Tagungen mit Danny Shapiro (Senior Director Automotive, nVidia) persönlich gesprochen. Sein Ziel ist dass die ganzen Daten in z.B. die DrivePX2 hineingehen und als Ergebnis hinten die Steuersignale heraus kommen. Aber wie lange das dauert konnte auch er nicht sagen. In seinen Vorträgen sieht er unterschiedliche Witterungs- und Straßenverhältnisse, verbunden mit fehlenden Straßenmarkierungen als eines der größten Probleme. Man kann wie auch in einigen Videos gezeigt sicher für mehr als 90 % der Situationen trainieren.

Aber was passiert bei unerwarteten Ereignissen?

Niemand kann vorhersagen was das Ergebnis eine DNNs ist wenn ein Ereignis auftritt das nie in ähnlicher Weise gelernt wurde. Z.B. wenn irgendwelche Gegenstände auf der Straße liegen oder plötzlich ein Elefant auf der Straße steht.

Ich sehe Probleme hinsichtlich Functional Safety ISO 26262 und ASIL (Automotive Safety Integrity Level), weil nach allem was bisher bekannt ist keine Redundanz vorhanden ist, die eine funktionale Degradation ermöglicht, z.B. wenn die einzige Spannungsversorgung ausfällt oder auch irgendeine Komponente im Rechner.

Sicher braucht man die Sicherheit nicht so weit wie im Flugzeug treiben mit mindestens 3 redundanten Systemen, die dazu noch mit drei unabhängig implementieren Softwareversionen versehen sind. Aber ein Hybrid zwischen DNN und konventioneller Technik, zumindest um prinzipiell Kollisionen zu verhindern und eine Notfallprozedur die das Fahrzeug unabhängig davon sicher zum Stillstand bringt, ist eher das was ich mir vorstelle. Und bei der Sensorausstattung hätte man doch zu Sensoren greifen müssen die sich gegenseitig ergänzen und teilweise auch überschneiden.

8 Kameras sind zwar schön und gut, aber sie funktionieren nur gut wenn sie sauber sind. Schon geringe Verschmutzungen sorgen für eine erhebliche Reduzierung der Bildqualität. Ich glaube nicht dass jeder Sensor eine eigene Reinigungsanlage hat. Eine Ergänzung mit zusätzlichen Radarsensoren wäre meiner Meinung nach auf jeden Fall sinnvoll. Die sind jetzt auch nicht mehr so teuer dass man hier Geld sparen müsste.

Aber die Radarsensoren passen nicht so recht zur aktuellen Hardwarearchitektur von nVidia für die PX2. Diese ist sehr kamerazentriert. Eine Radarrohdatenverarbeitung von vielen Sensoren ist damit wahrscheinlich sowieso nicht möglich, so dass man auf die Nutzung von bereits vor verarbeiteten Daten beschränkt ist. Ich bin kein Radarspezialist. In einer Arbeitsgruppe zur zukünftigen Architektur von Rechnersystemen habe ich mal vorgeschlagen doch auch Radarsignale direkt in DNNs zu stecken. Mir wurde von den Radarspezialisten fast der Kopf abgerissen :) weil sie sich das überhaupt nicht vorstellen konnten dass analoge Daten die im 77+ GHz Bereich direkt mit neuronalen Netzen verarbeitet werden können, obwohl es auch hier letztlich nur um Mustererkennung geht. Radarsignalverarbeitung ist heute immer noch überwiegend eine sehr spezielle Angelegenheit mit GaAs Halbleitern. Aber diese Woche habe ich auf der VDI Konferenz schon eine Lösung von NXP gesehen, die konventionelles CMOS einsetzt.

Fazit:

Ich persönlich sehe nach meinem momentanen Kenntnisstand nicht dass diese Hardwareausstattung für ein allumfassendes Level5 System ausreicht. Wenn dann funktioniert dies voraussichtlich nur auf bestimmten Strecken und unter bestimmten Witterungsbedingungen. Die größte Hürde dürfte die Zulassung entsprechend der aktuell geltenden Standards sein.

28 weitere Antworten
Ähnliche Themen
28 Antworten

Zitat:

@jukkarin schrieb am 8. Oktober 2016 um 14:06:29 Uhr:

dass der Fahrer immer noch das Auto fahren muss.

Wow, vielen Dank für diese Erkenntnis, Sherlock. ;) Telsa hat auch nie was anderes behauptet.

Ein paar Vollpfosten haben sich aber Harry-Potter-schauend unter LKW gequetscht und andere lebensgefährliche Stunts vorgeführt. Nur deswegen war Tesla gezwungen zu handeln. Das System funktionierte immer perfekt wie beworben.

Stimmt Martin.

Zitat:

 

Weder noch. Ich will aber die Verkehrsrisiken so niedrig wie möglich halten, weil meine Familie und ich selbst auch Verkehrsteilnehmer sind. Ich will nicht dass die von schlechtkonstrueirte teilautonomisch fahrende Autos leiden werden. Die Diskussion sollte auch die Teslafahrer (wie auch andere Autofahrer mit aktuellen Assistentensystemen) aufmerksam machen, mit welchen Risiken die unterwegs sind. Die bisherige Unfälle zeigen es, dass das nicht immer der Fall ist.

Die Reaktionen und Nachbesserungen von Tesla bestätigen, dass die Systemen nicht serienreif gewesen sind, und dass der Fahrer immer noch das Auto fahren muss.

Jukka

Also ehrlich, spar dir doch die Heuchelei! Wenn Dir an der Gesundheit deiner Familie liegt, dann mach Dir Sorgen über LKW mit abgefahrenen Reifen oder schlechten Bremsen auf der Autobahn, oder illegal auffrisierte Golfs mit 18-Jährigen Testosteron-Junkies am Steuer, oder über die Abgase denen Deine Kinder ausgesetzt sind, aber doch bitte nicht über den Tesla.

Von welchen bisherigen Unfällen sprichst Du? Der medial groß herausgebrachte und hier von Sampleman unter dem Threadtitel "Deutschland-Premiere: Der erste "Autopilot-Unfall"" gepushte Tesla-Crash war wohl doch Schuld des Busfahrers, was jetzt aber keinen mehr interessiert.

Oder meinst Du den Kalifornien-Crash wo der Fahrer Video geschaut hat? Was denkst Du wieviele Unfälle alleine in D passieren weil der Fahrer schnell mal am Handy textet? Mit non-Teslas, mit Verbrennern, nur interessiert es keine Sau!

Und hier machst Du plötzlich in allen möglichen Foren ein Fass wegen dem Tesla AP auf? Bleibt doch mal bitte auf dem Boden.

Schon interessant, dass am heiligen Gral Tesla keine Kritik geübt werden darf. Ich kenne bisher nur Tesla die ihre Assistenzsysteme "Autopilot" nennen!

 

Definition lt. Wikipedia :

"Als Autopilot wird eine automatische, üblicherweise programmierbare Steuerungsanlage bezeichnet, welche Fortbewegungsmittel auf Wunsch automatisch lenkt, ohne dass Menschen, während der Autopilot aktiv ist, in die Steuerung eingreifen müssen. In der Regel handelt es sich um einen Computer, der Umgebungsinformationen von den Instrumenten des Fortbewegungsmittels verarbeitet, um zu ermitteln, wie das Fortbewegungsmittel gesteuert werden soll."

 

Hier lese ich ständig, dass der Fahrer aufpassen muss wie ein Luchs! Es ist immer der Fahrer schuld wenns kracht und nie das Vehikel. Meine Erwartung: Wenn ich per Autopilot fahre dann ist das Vehikel schuld wenns kracht.

 

Alle anderen seriösen Hersteller nennen ihre Systeme NICHT Autopilot.

 

Dürfte ich mal kurz auf das Topic hinweisen?

Zum Thema "Autopilot" haben wir gefühlt 10 Threads laufen, da muss man Definition und Funktion HIER nicht auch noch aufwärmen.

Gruß

Zimpalazumpala, MT-Moderator

Und damit ist jetzt auch der Mobileye CEO durchschaut. Er wollte nur eine Geschichte in die Welt setzen bevor die Katze aus dem Sack ist. In Wahrheit hat Tesla den Lieferanten zu nVidia gewechselt.

NVidia stellt außer einem Entwicklungssystem und einer Beispielkonfiguration nur die nackte Hardwareplattform. Der Lieferant ist Tesla selbst.

Emil, was sagst du zu den neuen Sensoren?

Du bist ja vom Fach.

Reicht das?

Wenn das Wetter gut ist und es keinen Ausfall gibt dann reicht das vielleicht.

Aber mit absoluter Sicherheit kann das heute niemand wissen, weil es bisher noch nie so ein System gab, das eine so umfassende Aufgabe lösen kann, und deshalb die Erfahrung fehlt.

Einzelne Teilaufgaben wie Bilderkennung und Mustererkennung kann man heute sehr gut mit DNNs lösen, aber jede dieser Aufgaben benötigt eine spezifische Architektur des DNN. Die Optimierung ist viel Try-and-Error.

Ich habe schon auf einigen Tagungen mit Danny Shapiro (Senior Director Automotive, nVidia) persönlich gesprochen. Sein Ziel ist dass die ganzen Daten in z.B. die DrivePX2 hineingehen und als Ergebnis hinten die Steuersignale heraus kommen. Aber wie lange das dauert konnte auch er nicht sagen. In seinen Vorträgen sieht er unterschiedliche Witterungs- und Straßenverhältnisse, verbunden mit fehlenden Straßenmarkierungen als eines der größten Probleme. Man kann wie auch in einigen Videos gezeigt sicher für mehr als 90 % der Situationen trainieren.

Aber was passiert bei unerwarteten Ereignissen?

Niemand kann vorhersagen was das Ergebnis eine DNNs ist wenn ein Ereignis auftritt das nie in ähnlicher Weise gelernt wurde. Z.B. wenn irgendwelche Gegenstände auf der Straße liegen oder plötzlich ein Elefant auf der Straße steht.

Ich sehe Probleme hinsichtlich Functional Safety ISO 26262 und ASIL (Automotive Safety Integrity Level), weil nach allem was bisher bekannt ist keine Redundanz vorhanden ist, die eine funktionale Degradation ermöglicht, z.B. wenn die einzige Spannungsversorgung ausfällt oder auch irgendeine Komponente im Rechner.

Sicher braucht man die Sicherheit nicht so weit wie im Flugzeug treiben mit mindestens 3 redundanten Systemen, die dazu noch mit drei unabhängig implementieren Softwareversionen versehen sind. Aber ein Hybrid zwischen DNN und konventioneller Technik, zumindest um prinzipiell Kollisionen zu verhindern und eine Notfallprozedur die das Fahrzeug unabhängig davon sicher zum Stillstand bringt, ist eher das was ich mir vorstelle. Und bei der Sensorausstattung hätte man doch zu Sensoren greifen müssen die sich gegenseitig ergänzen und teilweise auch überschneiden.

8 Kameras sind zwar schön und gut, aber sie funktionieren nur gut wenn sie sauber sind. Schon geringe Verschmutzungen sorgen für eine erhebliche Reduzierung der Bildqualität. Ich glaube nicht dass jeder Sensor eine eigene Reinigungsanlage hat. Eine Ergänzung mit zusätzlichen Radarsensoren wäre meiner Meinung nach auf jeden Fall sinnvoll. Die sind jetzt auch nicht mehr so teuer dass man hier Geld sparen müsste.

Aber die Radarsensoren passen nicht so recht zur aktuellen Hardwarearchitektur von nVidia für die PX2. Diese ist sehr kamerazentriert. Eine Radarrohdatenverarbeitung von vielen Sensoren ist damit wahrscheinlich sowieso nicht möglich, so dass man auf die Nutzung von bereits vor verarbeiteten Daten beschränkt ist. Ich bin kein Radarspezialist. In einer Arbeitsgruppe zur zukünftigen Architektur von Rechnersystemen habe ich mal vorgeschlagen doch auch Radarsignale direkt in DNNs zu stecken. Mir wurde von den Radarspezialisten fast der Kopf abgerissen :) weil sie sich das überhaupt nicht vorstellen konnten dass analoge Daten die im 77+ GHz Bereich direkt mit neuronalen Netzen verarbeitet werden können, obwohl es auch hier letztlich nur um Mustererkennung geht. Radarsignalverarbeitung ist heute immer noch überwiegend eine sehr spezielle Angelegenheit mit GaAs Halbleitern. Aber diese Woche habe ich auf der VDI Konferenz schon eine Lösung von NXP gesehen, die konventionelles CMOS einsetzt.

Fazit:

Ich persönlich sehe nach meinem momentanen Kenntnisstand nicht dass diese Hardwareausstattung für ein allumfassendes Level5 System ausreicht. Wenn dann funktioniert dies voraussichtlich nur auf bestimmten Strecken und unter bestimmten Witterungsbedingungen. Die größte Hürde dürfte die Zulassung entsprechend der aktuell geltenden Standards sein.

Themenstarteram 24. Oktober 2016 um 11:57

Zitat:

@egn schrieb am 21. Oktober 2016 um 13:30:48 Uhr:

Sicher braucht man die Sicherheit nicht so weit wie im Flugzeug treiben mit mindestens 3 redundanten Systemen, die dazu noch mit drei unabhängig implementieren Softwareversionen versehen sind.

Da sehe ich für alle derteit in Entwicklung befindlichen autonomen Fahrzeugsysteme die Hürde. Eigentlich muss ein Auto-AP mindestens so sicher funktionieren wie ein Flugzeug-AP, weil Straßenverkehr, gemessen an Flugverkehr, eine sehr enge Angelegenheit ist. Wenn ein Flugzeug in seinem Luftkorridor mal 100 Meter weiter links oder rechts fliegt, ist das wurscht. Bei einem Auto kann schon ein halber Meter über Unfall oder nicht entscheiden.

Dazu kommt, dass eine AP-Anlage in einem Airbus vermutlich wesentlich teurer ist als eine S-Klasse in Vollausstattung. So ein Auto-AP muss also genauer und kreativer arbeiten als ein Flugzeug-AP, und dann darf er noch nicht mal viel kosten.

Einen Vorteil hat allerdings ein Auto-AP, er hat immer noch eine Rückfallebene: Warnblinkanlage an und stehen bleiben - das geht bei einem Flugzeug mitten über dem Atlantik nicht so einfach.

Nein, der Fahrzeugautopilot braucht nur sicherer sein als der menschliche Fahrer und weniger Unfälle verursachen und schon hat er seine Daseinsberechtigung. Und selbst wenn das ohne Redundanz erzielt wird, ist das ok. Das Ziel ist eine 2-10 fache Verbesserung gegenüber dem menschlichen Fahrer.

Die Forderung nach einer absolut perfekten Lösung, technisch oder sogar auch noch ethisch, auasi einem übermenschlichen Fahrer, verhindert letztlich jede Art Entwicklung in diese Richtung um Verkehrstote zur vermeiden.

Aber es ist auch klar dass die Technik auch ihren Vorteil nachweisen muss. Das geht aber nicht mit so statisch unhaltbaren Zahlen wie es EM immer wieder tut. Damit wird die Öffentlichkeit getäuscht, jeder der etwas von Statistik und Wahrscheinlichkeit versteht, kann nur den Kopf schütteln.

Man sollte so eine Technik nicht überstürzt in das Feld einführen, sondern Schritt für Schritt um erst Mal Erfahrung zu sammeln. Das sogenannte "Fleet-Learning" und die stille Aktivierung ist meiner Meinung nach kein Ersatz dafür, die dabei ausgetauschten Daten haben nur eingeschränkte Aussagekraft. Der CEO von nVidia hat mal gesagt, dass eine Sicherheit von 99,999999 % (Fehlerwahrscheinlichkeit für ASIL-D ist 10**-8) angestrebt wird. Diese ist erst Mal aussagekräftig nachgewiesen werden, bevor eine allgemeine Freigabe erfolgt. Und es stellt sich auch die Frage welche Sicherheit hier gemeint ist.

Wenn so ein System 100 Entscheidungen pro Sekunde trifft, dann würde bei einem Sytem im Schnitt alle 1 Mio Sekunden Fahrzeit eine falsche Entscheidung getroffen. Das sind gerade mal 12 Tage. Wenn jede dieser Fehlentscheidungen tatsächlich zu einem Unfall führen würde dann wäre das extrem schlecht.

Bei einer Durchschnittsgeschwindigkeit von 50 km/h wäre das ein Unfall alle 15.000 gefahrene km. In 2014 lag zwischen den polizeilich gemeldeten Unfällen in D im Schnitt aber mehr als 300.000 Fahrkilometer. Die Systeme müssten also noch um etwa 2 Größenordnungen sicherer werden um die Unfallzahlen signifikant zu reduzieren. ASIL-D reicht als höchste Sicherheitsstufe unter den hier verwendeten Bedingungen also gar noch nicht aus.

Der Nachweis der Sicherheit wird eine harte Nuss. Den Fachleuten in den Zertifizierungsstellen müssen schon handfeste Zahlen präsentiert werden bevor sie ihr ok geben.

Zitat:

@egn schrieb am 24. Oktober 2016 um 21:08:27 Uhr:

Wenn so ein System 100 Entscheidungen pro Sekunde trifft, dann würde bei einem Sytem im Schnitt alle 1 Mio Sekunden Fahrzeit eine falsche Entscheidung getroffen. Das sind gerade mal 12 Tage. Wenn jede dieser Fehlentscheidungen tatsächlich zu einem Unfall führen würde dann wäre das extrem schlecht.

Du schreibst doch selbst, dass es ausreicht, wenn der Computer weniger Fehler macht, als ein Mensch. Zeige mir einen Menschen, der auf diese niedrige Fehlerrate kommt. Bei Menschen sind mindestens 1 von 100 Entscheidungen falsch, alleine schon deshalb, weil er viel weniger Informationen zur Verfügung hat und verarbeiten kann wie eine Maschine. Oder wer hat schon permanenten Rundumblick ohne toten Winkeln?

Weiters ist deine Schlussfolgerung falsch, dass gleich jede Fehlentscheidung zu einem Unfall führt. Oder glaubst du wirklich, dass ein System 100x pro Sekunde über Leben und Tod entscheidet?

Zitat:

@Zimpalazumpala schrieb am 8. Oktober 2016 um 19:27:32 Uhr:

Dürfte ich mal kurz auf das Topic hinweisen?

Zum Thema "Autopilot" haben wir gefühlt 10 Threads laufen, da muss man Definition und Funktion HIER nicht auch noch aufwärmen.

Gruß

Zimpalazumpala, MT-Moderator

Falls es jemand überlesen hat ...

Gruß Zimpalazumpala

Ich schreibe meinen Text in einem anderen Thread.

Deine Antwort
Ähnliche Themen
  1. Startseite
  2. Forum
  3. Auto
  4. Tesla
  5. Mobile Eye trennt sich von Tesla