ForumTesla Model S und Model X
  1. Startseite
  2. Forum
  3. Auto
  4. Tesla
  5. Tesla Model S und Model X
  6. Warum wird nur auf dem Autopiloten von Tesla "rumgehackt"?

Warum wird nur auf dem Autopiloten von Tesla "rumgehackt"?

Tesla Model S 002
Themenstarteram 10. Oktober 2016 um 5:11

Hallo

Warum wird in den deutschen Medien, nur auf dem Tesla Autopiloten rumgehackt und nicht auch auf den geleichen Funktionen der deutschen Hersteller?

Und schreibt jetzt nicht, dass die sicherer oder gar besser wären.

Legst doch mal den gleichen Maßstab an die Systeme von Mercedes und Co.!

Mercedes:

DISTRONIC PLUS mit Lenk-Assistent und Stop&Go Pilot

http://www.mercedes-benz.de/.../intelligentdrive.html

 

Zitat:

Das Fahrassistenzsystem unterstützt den Fahrer dabei, einen sicheren Abstand zum Vordermann zu halten und in der Mitte der Spur zu bleiben. DISTRONIC PLUS mit Lenk-Assistent und Stop&Go Pilot bietet damit vor allem auf langen Strecken und beim Staufolgefahren hohen Entlastungskomfort.

BMW:

Driving Assistant Plus inkl. Lenk- und Spurführungsassistent.

http://www.bmw.de/.../fahrerassistenz.html#drivingassistant

 

Zitat:

Die Ausstattung Driving Assistant Plus bietet teilautonomen Fahrkomfort durch die Aktive Geschwindigkeitsregelung mit Stop&Go-Funktion und den Lenk- und Spurführungsassistenten. Zusätzlich zu den Funktionen des Driving Assistant profitiert die Sicherheit von der Spurverlassenswarnung, dem Spurhalteassistenten mit aktivem Seitenkollisionsschutz, der Auffahr- und Personenwarnung mit City-Bremsfunktion und der Querverkehrswarnung vorne.

Die Aktive Geschwindigkeitsregelung hält die eingestellte Geschwindigkeit bis 210 km/h und den Abstand zum Vordermann. Im gleichen Geschwindigkeitsbereich steht der komfortable Lenk- und Spurführungsassistent zur Verfügung, der das Lenken komfortabel unterstützt und den BMW automatisch in der Mitte der Fahrspur hält. Auch im zäh fließenden Verkehr und im Stau hält das Fahrzeug den gewählten Abstand durch selbstständiges Bremsen und Anfahren.

Audi:

adaptive cruise control mit Stop&Go-Funktion inklusive Audi pre sense front

Audi side assist inklusive pre sense rear und Audi active lane assist

https://www.audi.de/.../a8-l-w12.html?...

 

Zitat:

adaptive cruise control hält zuverlässig Geschwindigkeit und Abstand zum vorausfahrenden Fahrzeug ein

Audi pre sense warnt bei erkannten kritischen Fahrsituationen und verringert Kollisionsgefahren.

Audi side assist überwacht den Fahrspurwechsel

Audi pre sense rear aktiviert bei drohender Heckkollision präventive Schutzmaßnahmen

Audi active lane assist greift vor Überschreiten der Fahrbahnmarkierung sanft in die Lenkung ein

VW:

Front Assist & Side Assist

http://www.volkswagen.de/.../highlights.html?...

Und ganz neu in der E-Klasse der DRIVE PILOT. Klingt das weniger versprechend als Autopilot? Nicht wirklich oder?

http://www.mercedes-benz.de/.../safety.html

 

Zitat:

Ob im Stadtverkehr, auf Landstraßen oder Autobahnen, der DRIVE PILOT regelt Abstand und Geschwindigkeit und unterstützt beim Lenken. Damit kann er den Fahrer spürbar entlasten, besonders bei langen Fahrten sowie im Kolonnen- und Stauverkehr.

Die versprechen alle das gleiche, heißen nur anders.

Und bitte, bleibt beim Thema.

Und bitte nicht in die Community verscheiebn. ;)

Beste Antwort im Thema

Zitat:

 

Autopilot

Dank dem Autopilot System kann das Model S mehr als nur die Spur halten. Ein kurzes Antippen des Blinkerhebels genügt, um den Spurwechsel vollautomatisch durchführen zu können. Auch die Geschwindigkeit wird vollkommen autonom geregelt, denn die verkehrsadaptive Tempomatik passt sich dem Verkehrsfluss perfekt an. Die digitale Verbundsteuerung von Motor, Bremsen und Lenkung hält das Fahrzeug in der vorgesehenen Spur und hilft gleichzeitig, Front- und Seitenkollisionen zu vermeiden. Das Model S erkennt sogar passende Parklücken für Sie und parkt vollkommen autonom ein.

Weitere Autopilot-Funktionen werden durch Software-Updates im Laufe der Zeit implementiert.

Keiner der anderen Hersteller verwendet den Begriff "Autopilot" und "vollkommen autonom". Die anderen Hersteller sind viel defensiver bei der Beschreibung und verwenden Begriffe wie "Assistent" und "teilautonom".

220 weitere Antworten
Ähnliche Themen
220 Antworten

Ganz so pessimistisch bin ich nicht. Ich würde nicht "nie" sagen, aber den Optimismus mancher hier im Forum, die das schon als gelöst sehen und über lahme, inkompetente und protektionistische Behörden meckern teile ich noch weniger.

Die Frage ist ja nicht, wann das System perfekt ist, sondern ab wann es mindesten so gut wie der menschliche Fahrer ist. Einige Jahre, und da sehe ich eher 5-10 als 2-3, werden sicher noch ins Land gehen.

So zu tun als hätte man den Autopiloten schon und stünde kurz vor dem autonomen Fahen ist eher kontraproduktiv, aber vielleicht verkaufsfördernd.

Wieso so tun? Täglich fahren tausende Teslas autonom. Es funktioniert also bereits nachweislich.

Jetzt müssen die Autos noch genug Daten sammeln, um alle Abweichungen vom Optimalzustand zu lernen. D.h. alles von einem querstehenden Auto, zu einem umgestürzten Baum, einem Kind das auf die Fahrbahn läuft, usw. Dann kann man die Autopiloten ohne permanente Überwachung durch den Fahrer auf den öffentlichen Verkehr loslassen.

Wenn die nVidia Software so funktioniert, wie sie beworben wird, dauert das ein paar Millionen Kilometer, bis die Flotte alles einmal gesehen und gelernt hat.

Ich behaupte nach wie vor die Software wird schneller soweit sein als die Gesetzgeber. Wobei sich auf der rechtlichen Seite jetzt auf einmal doch Bewegung abzeichnet. Spätestens wird es dann erlaubt, wenn ABM mit ihrer Technik auch soweit sind.

Zitat:

@MartinBru schrieb am 15. November 2016 um 23:21:29 Uhr:

Wieso so tun? Täglich fahren tausende Teslas autonom. Es funktioniert also bereits nachweislich.

Nur unter ständiger Beobachtung und kontrollierendem Eingriff durch den Fahrer, also keineswegs autonom im Sinne höherer Autonomielevel als 2.

Zitat:

Jetzt müssen die Autos noch genug Daten sammeln, um alle Abweichungen vom Optimalzustand zu lernen. D.h. alles von einem querstehenden Auto, zu einem umgestürzten Baum, einem Kind das auf die Fahrbahn läuft, usw. Dann kann man die Autopiloten ohne permanente Überwachung durch den Fahrer auf den öffentlichen Verkehr loslassen.

Vergiss es...

Das wäre die erste Anwendung, die aus den Daten der Vergangenheit die Zukunft vorhersagen kann. Das selbe versuchen computergestützte Finanzanlagestrategien seit Jahrzehnten mit bescheidenem Erfolg.

Zitat:

Wenn die nVidia Software so funktioniert, wie sie beworben wird, dauert das ein paar Millionen Kilometer, bis die Flotte alles einmal gesehen und gelernt hat.

Mein und viele andere CAD Software Ausrüster werben damit, dass per Boolscher Operation automatisch Gussteile in Hauptformelemente und Schieber separiert werden können. Funktioniert in der Messedemo perfekt, im richtigem Leben leider nur an 0-8-15 Teilen.

bye

Zitat:

@pivili schrieb am 16. November 2016 um 10:22:22 Uhr:

Zitat:

@MartinBru schrieb am 15. November 2016 um 23:21:29 Uhr:

Wieso so tun? Täglich fahren tausende Teslas autonom. Es funktioniert also bereits nachweislich.

Nur unter ständiger Beobachtung und kontrollierendem Eingriff durch den Fahrer, also keineswegs autonom im Sinne höherer Autonomielevel als 2.

Wer hat wann und wo behauptet, dass der Tesla Autopilot 1.0 mehr als Level 2 ist?

Zitat:

@pivili schrieb am 16. November 2016 um 10:22:22 Uhr:

Zitat:

Jetzt müssen die Autos noch genug Daten sammeln, um alle Abweichungen vom Optimalzustand zu lernen. D.h. alles von einem querstehenden Auto, zu einem umgestürzten Baum, einem Kind das auf die Fahrbahn läuft, usw. Dann kann man die Autopiloten ohne permanente Überwachung durch den Fahrer auf den öffentlichen Verkehr loslassen.

Vergiss es...

Das wäre die erste Anwendung, die aus den Daten der Vergangenheit die Zukunft vorhersagen kann. Das selbe versuchen computergestützte Finanzanlagestrategien seit Jahrzehnten mit bescheidenem Erfolg.

Da sich die Kurve selten verändern wird, kann Tesla anhand der Daten schon bevor die Kurve kommt bremsen.

Aber ich vor Ort erlebt.

Das erste Mal wo ich durch eine engere Kurve gefahren bin, ist er mit dem vollen Tempo reingefahren und es wurde knapp.

Später hat er schon vor der Kurve (noch auf der geraden Strecke) das Tempo reduziert und die Kurve souverän gemeistert.

Siehe Anhänge.

Zitat:

@pivili schrieb am 16. November 2016 um 10:22:22 Uhr:

Zitat:

Wenn die nVidia Software so funktioniert, wie sie beworben wird, dauert das ein paar Millionen Kilometer, bis die Flotte alles einmal gesehen und gelernt hat.

Mein und viele andere CAD Software Ausrüster werben damit, dass per Boolscher Operation automatisch Gussteile in Hauptformelemente und Schieber separiert werden können. Funktioniert in der Messedemo perfekt, im richtigem Leben leider nur an 0-8-15 Teilen.

Schau dir die google Software an.

Die erkennt im 360° Winkel alle Gefahren.

Sie muss nur passend programmiert sein, um richtig zu reagieren.

Zu dem Thema zeige ich gerne folgendes Video:

https://youtu.be/Uj-rK8V-rik?t=24m56s

Hättest du den zweite Fahrradfahrer rechtzeitig erkannt? (Hör mal was der Google Mensch bei Minute 33 dazu sagt)

Autopilot9-strassennetz
Autopilot10-hochpraezise-navigation

Zitat:

@pivili schrieb am 16. November 2016 um 10:22:22 Uhr:

Das wäre die erste Anwendung, die aus den Daten der Vergangenheit die Zukunft vorhersagen kann. Das selbe versuchen computergestützte Finanzanlagestrategien seit Jahrzehnten mit bescheidenem Erfolg.

Wer sagt denn was von Zukunft vorhersagen? Es genügt gelernte Muster wiederzuerkennen und entsprechend zu reagieren.

Alleine innerhalb von 6 Monaten kam der Autopilot von "Ich fahre alle Menschen über den Haufen, wenn sie im Weg stehen" zu "Fußgänger werden im Display angezeigt und im Notfall wird gebremst". Das ist sicher noch nicht perfekt, aber schon ein riesiger Schritt.

Schau mal was heute schon alles geht:

https://www.youtube.com/watch?v=4E4qbeFb12k

Genauso müssen noch viele andere Situationen automatisiert werden. Aber warum sollte das unmöglich sein?

Zitat:

@MartinBru schrieb am 16. November 2016 um 13:40:30 Uhr:

Zitat:

@pivili schrieb am 16. November 2016 um 10:22:22 Uhr:

Das wäre die erste Anwendung, die aus den Daten der Vergangenheit die Zukunft vorhersagen kann. Das selbe versuchen computergestützte Finanzanlagestrategien seit Jahrzehnten mit bescheidenem Erfolg.

Wer sagt denn was von Zukunft vorhersagen? Es genügt gelernte Muster wiederzuerkennen und entsprechend zu reagieren.

Alleine innerhalb von 6 Monaten kam der Autopilot von "Ich fahre alle Menschen über den Haufen, wenn sie im Weg stehen" zu "Fußgänger werden im Display angezeigt und im Notfall wird gebremst". Das ist sicher noch nicht perfekt, aber schon ein riesiger Schritt.

Schau mal was heute schon alles geht:

https://www.youtube.com/watch?v=4E4qbeFb12k

Genauso müssen noch viele andere Situationen automatisiert werden. Aber warum sollte das unmöglich sein?

Hi,

prinzipiell "unmöglich" habe ich nicht gesagt. Die Frage nach wirtschaftlich sinnvoller Realisierbarkeit Level5 auf allen Strecken wird sich nur irgendwann stellen (das impliziert ja irgendwo der Traum von: "ich fahre mit meinem Auto in die Arbeit und schicke es dann fahrerlos heim zur Familie; abends kommt es wieder und holt mich ab") und meiner Meinung nach negativ ausfallen. (siehe Standardproblem "Griff in die Kiste")

Das heisst natürlich auch nicht, dass es kein Level5 in dafür sicheren Verkehrsräumen geben wird. Und das wird in der Tat nicht mehr lange dauern (LKW Hub to Hub auf der BAB, etc).

Gerade in den USA kann man ja 16 jährige mit Minimalausbildung fahren lassen. Die Verkehrssituation ist in weiten Bereichen simpel. Fast alle Kreuzungen gesichert (Ampel oder 4way stop, oft bolzengerade breite Strassen, Riesen Parkplätze, kaum Fussgänger/Radfahrer usw). Das wird die Fahrmaschine auch (und statistisch sicherer) hinbekommen. Dagegen Verkehrswege in einer durchschnittlichen europäischen Grosstadt oder als anderes Extrem in einem sizilianischen Bergdorf (-8 ????

...aber etwas genauer zu Deinen und kajus Aspekten:

Das Daten sammeln der Strecken und möglicher Objekte macht freilich Sinn, erlaubt aber halt nur "Vergangenheitsbewältigung":

-bessere Linienwahl und Tempowahl in kurvigen Abschnitten

-Orientierung, wenn die Sensorik nix findet (Blätter/Schnee/wasweissich auf den Linien, etc.)

-Bibliothek fürs Patternmatching störende Objekte (können so oder so oder so aussehen).

-zusätzlich statistische Unfallwahrscheinlichkeit ermitteln. Da neuronale Netze nicht vollständig testbar sind, wird der Nachweis der Funtionssicherheit nur statistisch möglich sein.

 

Das hilft allles, um zusätzlich zur Sensorik Informationen bereit zu halten. Ansonsten muss halt die Sensorik ran und den täglich veränderbaren Kram aussortieren (auch nicht so einfach, festzustellen, wer hat Recht: die Sensorik, weil da heute Tagesbaustelle ist oder spinnt der Sensor (Dreck auf Linse) und da ist nix):

Lidar wie bei google ist das kompletteste Sensorsystem, allerdings auch mit dem größten Aufwand. Meiner Meinung nach sensorisch vermutlich ausreichend aber nicht massenmarkttauglich, weil technisch sehr komplex.

Radar kenne ich mich nicht wirklich aus, ich vermute aber als alleiniges Wirkprinzip zu geringe Auflösungsschärfe, dafür aber weniger licht und Wetterabhängig. Solange nicht jeder Verkehrteilnehmer einen cornerreflektor bei sich haben muss, nur als unterstützendes Sensorsystem ("da ist was im Weg")

Weisslichtbildverarbeitung.

Zur Zeit meiner Diplomarbeit galt der Grundsatz "was der Mensch nicht sieht, sieht der Roboter niemals). Gut das war vor 20 Jahren, aber das Grundproblem bleibt aufgrund des Wirkprinzips das selbe:

Der Bildverarbeitung steht nur die Auswertung der Farbwerte aller Bildpunkte zur Verfügung. Das man damit weit gekommen ist, keine Frage. Aber die Software kann nur die Veränderung der Farbwerte feststellen und anhand hinterlegter Algorithmen und Thresholds Entscheidungen treffen. Von Sensorstörung (die aber u.U. gar nicht als Störung erkannt wird) durch Nacht, Wetter, verdreckte Optik möchte ich gar nicht anfangen.

Der Mensch dagegen versteht den Kontext des Bildes und kann damit Prognosen für den weiteren Verlauf der Szenerie anstellen, die sehr oft und steigend mit wachsender Verkehrserfahrung richtig sind. Das ist ähnlich wie Übersetzungssoftware: auch wenn in der Bibliothek jedes Wort und jede Flexion mit allen jemals vorkommenden Bedeutungen abgelegt sind, wird die Übersetzung ohne Verständnis des Kontextes schlechter sein, als die eines Menschen.

Einfaches Beispiel: du fährst mit Vorfahrt auf eine Kreuzung zu an der ein anderes Auto warten muss. Erfahrene Fahrer werden schauen, ob Blickkontakt zustande kommt (oder zumindest die Gesichtsseite des Fahrers zu Ihnen scheint) und wenn nicht bremsbereit bleiben. Ich bezweifle, das so etwas sicher ("Gesichtsseite Fahrer erkennbar->check") per patternmatching entscheidbar ist. Auch aus gesammelten Daten ist keine Entscheidung ableitbar.

Und von diesen Situationen wimmelt es im Strassenverkehr. Deren Bewertung ist dann auch noch in diversen Teilen der Welt völlig unterschiedlich. Ein Nordeuropäer schaut in den Rückspiegel und interpretiert was er sieht, ein Südeuropäer verzichtet auf diese Information komplett ;-).

Ein Ausweg daraus wäre ggf. Kommunikation zwischen den autonomen Fahrzeugen ("ich fahr jetzt los") oder eben sichere Verkehrsräumen in denen keine Verkehrsteilnehmer vorkommen, die irrational handeln.

Nächstes Thema: Redundanz: Was passiert, wenn der Level5 Autopilot aussteigt. Vermutlich fährt er notfallweise rechts ran. Blöd, wenn an einer plötzlich aufgetretenen Problemstelle (z.B. Witterung?) viele Level5 Autos das selbe Problem haben -> spontaner Parkplatz. Wer macht die Mühlen wieder flott?

 

Zweifelsohne ein spannendes Thema und natürlich erhebe ich nicht den Anspruch, im Besitz der Wahrheit zu sein.

Bye

Von Tesla gibt es ein neues Video zum AP 2.0

http://www.youtube.com/watch?v=VG68SKoG7vE

Bitte um zahlreiche Wortmeldungen, warum es niemals funktionieren kann. ;)

Bitte sehr:

zunächst Danke für den Video, keine Frage soweit beeindruckende Leistung.

Aber es zeigt doch auch sehr genau, warum das nicht überall vollautonom funktionieren wird:

Man kann ganz gut nachvollziehen, was das System alles erkennt und was nicht (mal davon ausgehend, dass die Markierungen z.B. im screen "medium range camera" irgendwo realistisch sind).

Deutlich sichtbare Objekte (Verkehrsschilder, Hydranten, weisse Pfosten, bunte Fussgänger) sind ganz gut auswertbar, große Objekte wie andere Autos sowieso.

Bei den Joggerinnen bei 3:55 bleibt es fast stehen, weil er die wohl wegen farbigen Klamotten als Menschen erkennt. An den schwarz gekleideten Fussgängern bei 1:08 oder 6:10 (beide sehr spät als Objekt markiert) pfeilt er voll vorbei, weil das wohl für ihn irgendein Pfosten oder sowas wie die Mülltonne bei 4:10 ist (die er auch erst 10m vorher überhaupt erkennt).

Ein menschlicher Fahrer würde da (wie der Tesla bei den Personen mit farbigen Klamotten vorher) abbremsen, damit die Person nicht plötzlich mit einem Schritt zur Seite in der Fahrbahn steht.

Genau das sind die Dinge, die ich vorher angesprochen habe und die werden mit Weisslichtbildverarbeitung nicht zu lösen sein.

Über ne graue Betonschwelle auf grauer Strasse würde der drüberbrettern (Radarsensorik detektiert nur bewegte Objekte). Nachts geht wahrscheinlich gar nix, und wird auch mit der Sensorik niemals...

Versuch doch einfach mal, die Bewegungsmelderfunktion einer Überwachungskamera zu programmieren, damit zum einen nicht dauern Fehlalarm wegen jeder durchfliegenden Mücke angeht, sie aber andererseits nicht so unsensibel wird, das Typen in Tarnklamotten trotzdem erkannt werden. Vor dem gleichen Problem stehen die Jungs/Mädels dort auch, nur mit volldynamischer 360° Auswertung.

 

Schade, dass das Video durch die Kompression im Tempo stark schwankt (auch wenn da Realtime speed drüber steht). Wie das bei Originaltempo aussieht, hätte mich sehr interessiert.

Sorry, nicht überzeugt. Level 5 überall - no way.

bye

Themenstarteram 21. November 2016 um 8:03

@pivili

Tesla hat am 20. Oktober 2016 seine neue Hardware vorgestellt.

Das Video ist von 18. November 2016.

Also keinen Monat später und er macht das jetzt schon.

Google fährt wie lange mit ihren Fahrzeugen rum und lernen?

Ich zitiere mal Elon Musk:

Zitat:

Als Tesla am Donnerstag bekannt gab, dass alle ab sofort produzierten Fahrzeuge die nötige Hardware besitzen, um vollkommen autonom Fahren zu können (Autopilot 2.0), wurde auch einschränkend erwähnt, dass dies noch mindestens zwei Jahren dauern wird, bis man tatsächlich von vollkommenem autonomen Fahren (Level 5) sprechen kann.

Derzeit ausgelieferte Fahrzeuge mit AP2.0 können sogar weniger als aktuelle mit AP1.0

Zitat:

Tesla gibt jedoch zu, dass es einige gewisse Zeit brauchen wird, bis man das volle Potenzial der neuen Hardware nutzen kann. In den nächsten zwei bis drei Monaten wird man erst alle Funktionen des aktuell verfügbaren Autopiloten nutzen können. Anschließend sollen im Autopilot 2.0 alle zwei bis drei Monate neue Funktionen hinzukommen. Autonomiestufe 5 wird frühestens 2018 erwartet.

Von daher wäre ich mit deinem "Sorry, nicht überzeugt. Level 5 überall - no way." noch sehr sehr vorsichtig.

Nochmal: ich bestreite nicht, dass es Level5 zumindest in dafür sicheren Verkehrsräumen geben wird. Ich habe auch nirgendwo die gezeigte Leistung aberkannt. (in dem man die Standardvorwürfe bringen würde: "gecastete Strecke", ""fährt frühmorgens wo nix los ist", "zeigt nur das beste Video aus x Durchfahrten")

 

Klar dürfte aber auch sein, dass die Entwicklung nicht erst seit der Ankündigung läuft.

Allerdings vertraue ich mehr der Faktenlage und meinem Urteilsvermögen als Marketingsstatements, weil auch Herr Musk die Physik nicht bescheissen kann. Gibt Dir nicht zu denken, dass google (ausgerechnet google, die totale "Langweilerfirma") so lange rumfährt, während Tesla scheinbar mühelos die Hürden nimmt?

 

Setz dich doch mal mit meinen Argumenten auseinander, anstatt Presseerklärungen wiederzugeben. dfas ist nicht schwer, da reicht der gesunde Menschenverstand:

Wie willst Du einen dunklen Fussgänger von einem dunklen Objekt ähnlicher Ausdehnung unterscheiden? Was machst Du als Workaroundstrategie, wenn du das nicht kannst?

-Bessere Sensorik: Kameraauflösung weiter erhöhen, um mehr Farbwertinformation zu erhalten und Mensch von Mülltonne zu unterscheiden.

-bedeutet: Rechenleistung deutlich erhöhen, Bildpunkte nehmen im Quadrat zu.

-andere Sensorik hinzufügen (IR wäre sicher gut, weil Fussgänger anders abstrahlen als was Unbelebtes, Lidar geht möglicherweise auch)

-sichere Anfahr-/ Ausweichstrategie (an solche Objekte langsam ranfahren oder Bogen drumrum, wenn möglich)

-für Markierung sorgen "Fussgänger dürfen nur in Highwiz-Klamotten auf die Strasse"

-Datensammeln: an der Stelle kommen Fussgänger gerne vor, die Wahrscheinlichkeit Fussgänger > Mülltonne an der Stelle hoch.

-...

Problemverschärfung: Wie willst du in der Dunkelheit einen dunklen Fussgänger usw.....

Vielleicht verstehst Du nun meine Skepsis....

Und nein, ich habe nix gegen den Herren. Ganz im Gegenteil. Ich lebe als Prototypenbauer davon, dass die Automotive Industrie ihre Trampelpfade verläßt.

bye

Zitat:

@pivili schrieb am 21. November 2016 um 10:07:53 Uhr:

Problemverschärfung: Wie willst du in der Dunkelheit einen dunklen Fussgänger usw.....

Hmm, mit Radar und Ultraschall?

Ich muss mich auch KaJu anschließen. Von der Entwicklung nach einem Monat auf "das wird nie was" zu schließen ist sehr gewagt. Wenn das wer programmieren würde, würde ich dir da sogar eingeschränkt recht geben.

Der Plan von Tesla ist aber machine learning und da sind wir auf einmal in einer ganz anderen Welt. Zur Zeit lernt die Flotte aus einigen wenigen Autos mit der passenden Hardware. Warte mal, wenn damit zigtausende Teslas im passiven Modus rumfahren und lernen.

Dann werden die schon draufkommen, dass man vor Frauen am Straßenrand keine Notbremung hinlegen muss, weil die sich mit 99,999% Wahrscheinlichkeit doch nicht vors Auto werfen. Und alles andere wo das Auto unsicher reagiert hat, wird dann massiv verbessert.

Spannend wird es dann natürlich noch eine Heuristik zu entwickeln, die auch halbwegs sinnvolle Entscheidungen treffen kann, wenn etwas passiert, was noch nie ein Auto aus der Flotte vor die Sensoren bekommen hat. Rosa Elefanten mitten auf der Kreuzung und sowas.

Aber lassen wir uns überraschen, es dauert ja noch etwas bis die Flotte genug Daten geliefert hat. Spannend ist übrigens, dass in Österreich der gesetzliche Rahmen für autonome Testfahrten bereits gelegt ist. Das ging schneller als ich erwartet habe. Kann natürlich daran liegen, dass wir hier keine großen Autohersteller haben, die es so lange verhindern wollen, bis sie selbst soweit sind, sondern dass wir viele Zulieferer haben, die es nicht erwarten können damit auf die Straße zu kommen.

Themenstarteram 21. November 2016 um 9:52

Zitat:

@pivili schrieb am 21. November 2016 um 10:07:53 Uhr:

Klar dürfte aber auch sein, dass die Entwicklung nicht erst seit der Ankündigung läuft.

Klar läuft die Entwicklung, aber ohne Daten der Sensoren ist und bleibt es eben nur Theorie.

Zitat:

Allerdings vertraue ich mehr der Faktenlage und meinem Urteilsvermögen als Marketingsstatements, weil auch Herr Musk die Physik nicht bescheissen kann. Gibt Dir nicht zu denken, dass google so lange rumfährt, während Tesla scheinbar mühelos die Hürden nimmt?

Tesla hat doch nur die Hürde Level 2 genommen.

Die Entwicklung von Level 5 dauert nach Tesla angaben ja noch 2-3 Jahre.

Zitat:

Setz dich doch mal mit meinen Argumenten auseinander, anstatt Presseerklärungen wiederzugeben.

Mache ich täglich live. Denn ich nutze den Autopiloten1.0 regelmäßig und er ist mit der gleichen Hardware schon deutlich sicherer geworden.

Zitat:

Wie willst Du einen dunklen Fussgänger von einem dunklen Objekt ähnlicher Ausdehnung unterscheiden?

Ist der Fußgänger ein statisches Objekt, oder bewegt er sich? also, dafür gibt es das Radar.

Zitat:

Was machst Du als Workaroundstrategie, wenn du das nicht kannst?

Welche Workaroundstrategie hat der menschliche Fahrer?

Zitat:

-Bessere Sensorik: Kameraauflösung weiter erhöhen, um mehr Farbwertinformation zu erhalten und Mensch von Mülltonne zu unterscheiden.

-bedeutet: Rechenleistung deutlich erhöhen, Bildpunkte nehmen im Quadrat zu.

-andere Sensorik hinzufügen (IR wäre sicher gut, weil Fussgänger anders abstrahlen als was Unbelebtes, Lidar geht möglicherweise auch)

-sichere Anfahr-/ Ausweichstrategie (an solche Objekte langsam ranfahren oder Bogen drumrum, wenn möglich)

-für Markierung sorgen "Fussgänger dürfen nur in Highwiz-Klamotten auf die Strasse"

-Datensammeln: an der Stelle kommen Fussgänger gerne vor, die Wahrscheinlichkeit Fussgänger > Mülltonne an der Stelle hoch.

Hast du dir das Video wirklich angesehen?

Hast du die Fakten wirklich gelesen?

1. Tesla hat jetzt deutlich bessere Sensoren und z.B. 3 Kameras nach vorne gerichtet, auch wenn in dem Video nur eine gezeigt wird.

2. Tesla verwendet ja den Nvidia Chip der 40x mehr Rechenleistung hat, als der aktuelle AP1.0

3. IR nutzt bei Thermojacken auch nur wenig.

4. Selbst in dem Video fährt er langsam an die Leute, die zu nahe an der Fahrbahn sind heran.

5. Es wird nur eine Datensammlung wie bei google geben, die verschiedene Objekte katalogisiert. So dass der Wagen später auch Polizisten an einer Kreuzung erkennt, wenn die Ampel ausgefallen ist, oder es muss auch ein Micro geben, das Martinshorn Geräusche erkennt usw..

Zitat:

Problemverschärfung: Wie willst du in der Dunkelheit einen dunklen Fussgänger usw.....

Vielleicht verstehst Du nun meine Skepsis....

Gerade das Beispiel bei 6:10 finde ich genial von dir gewählt. Siehe Bild im Anhang, der Tesla hat den schwarzen Fußgänger bereits entdeckt, als ich ihn im Bild noch nicht erkennen kann.

Zitat:

Und nein, ich habe nix gegen den Herren. Ganz im Gegenteil. Ich lebe als Prototypenbauer davon, dass die Automotive Industrie ihre Trampelpfade verläßt.

Und nein, ich bin kein Mitarbeiter von Tesla und ich werde auch nicht für meine Beiträge bezahlt. (Leider)

Unbenannt

Mir hats es gerade den Editor zerlegt, daher nur ne Kurzantwort.

Zitat:

@KaJu74 schrieb am 21. November 2016 um 10:52:31 Uhr:

Zitat:

Wie willst Du einen dunklen Fussgänger von einem dunklen Objekt ähnlicher Ausdehnung unterscheiden?

Ist der Fußgänger ein statisches Objekt, oder bewegt er sich? also, dafür gibt es das Radar.

Kommt drauf an. Wenn er am Strassenrand wartet.. statisch. Vermutlich ist aber selbst ein bewegter Fussgänger wegen großem Geschwindigkeitsunterschied zur Sensorkalibierung (der wird vermutlich auf die schnelleren Verkehrsteilnehmer ausgelegt sein) und aufgrund reichlich Geistersignale des Echos (Arme, Beine) schwer zu detektieren sein. Ultraschall geht sowieso nur im Nahbereich.

Zitat:

@KaJu74 schrieb am 21. November 2016 um 10:52:31 Uhr:

Zitat:

Was machst Du als Workaroundstrategie, wenn du das nicht kannst?

Welche Workaroundstrategie hat der menschliche Fahrer?

Der Workaroundstrategie des Menschen in unklaren Situationen ist defensiv fahren, ggf. Abstand zum Straßenrand herstellen usw. Für die Maschine ist bei fehlenden Sensorinformationen und keinen Einsprüchen aus dem Datenbestand der Cloud alles "clear to go". Jetzt kann man natürlich sagen: Kein Problem, weil der Roboter auch schneller reagieren kann, falls dann doch was ist. Das Gesehene läßt mich da aber schon zweifeln.

Zitat:

@KaJu74 schrieb am 21. November 2016 um 10:52:31 Uhr:

Zitat:

Problemverschärfung: Wie willst du in der Dunkelheit einen dunklen Fussgänger usw.....

Vielleicht verstehst Du nun meine Skepsis....

Gerade das Beispiel bei 6:10 finde ich genial von dir gewählt. Siehe Bild im Anhang, der Tesla hat den schwarzen Fußgänger bereits entdeckt, als ich ihn im Bild noch nicht erkennen kann.

Nunja, sehe ich anders: in Deinem Screenshot (so bei 6:05) erkennt das System irgendwas. Ich und Du (siehe Dein roter Kreis) erkennen den weissen Hund oder zumindest was untypisches Weisses in Bodennähe. Da würde ich als Fahrer schon mal vorsichtig werden. Der Robo verliert das Signal dann wieder und detektiert relativ kurz vor Vorbeifahrt das größere dunkle Objekt. Da er das aber nicht als Person einstuft (Vermutung meinerseits, Grund: bunten Fussgängern nähert er sich vorsichtig), fährt er volles Rohr dran vorbei (siehe Tacho). Das selbe Verhalten auch bei 2:50. Auch da wird am Fussgänger vorbei fröhlich los beschleunigt.

Es gibt da also viel zu tun und es wäre ja langweilig, wenn alle hier die selbe Meinung hätten.

bye

 

Zitat:

@pivili schrieb am 21. November 2016 um 12:35:39 Uhr:

Zitat:

@KaJu74 schrieb am 21. November 2016 um 10:52:31 Uhr:

Ist der Fußgänger ein statisches Objekt, oder bewegt er sich? also, dafür gibt es das Radar.

Kommt drauf an. Wenn er am Strassenrand wartet.. statisch.

Wenn er statisch waret, kann der Tesla doch problemlos vorbei fahren.

Zitat:

Vermutlich ist aber selbst ein bewegter Fussgänger wegen großem Geschwindigkeitsunterschied zur Sensorkalibierung und aufgrund reichlich Geistersignale des Echos (Arme, Beine) schwer zu detektieren sein. Ultraschall geht sowieso nur im Nahbereich.

1. Vermutung.

2. Habe ich von Radar und nicht von Ultraschall gesprochen.

Zitat:

@pivili schrieb am 21. November 2016 um 12:35:39 Uhr:

Zitat:

@KaJu74 schrieb am 21. November 2016 um 10:52:31 Uhr:

Welche Workaroundstrategie hat der menschliche Fahrer?

Der Workaroundstrategie des Menschen in unklaren Situationen ist defensiv fahren, ggf. Abstand zum Straßenrand herstellen usw. Für die Maschine ist bei fehlenden Sensorinformationen und keinen Einsprüchen aus dem Datenbestand der Cloud alles "clear to go". Jetzt kann man natürlich sagen: Kein Problem, weil der Roboter auch schneller reagieren kann, falls dann doch was ist. Das Gesehene läßt mich da aber schon zweifeln.

Man kann auch einen Roboter so programmieren, dass er bei Unklarheiten erst mal stoppen oder Abstand halten soll.

Zitat:

@pivili schrieb am 21. November 2016 um 12:35:39 Uhr:

Zitat:

@KaJu74 schrieb am 21. November 2016 um 10:52:31 Uhr:

Gerade das Beispiel bei 6:10 finde ich genial von dir gewählt. Siehe Bild im Anhang, der Tesla hat den schwarzen Fußgänger bereits entdeckt, als ich ihn im Bild noch nicht erkennen kann.

Nunja, sehe ich anders: in Deinem Screenshot (so bei 6:05) erkennt das System irgendwas. Ich und Du (siehe Dein roter Kreis) erkennen den weissen Hund oder zumindest was untypisches Weisses in Bodennähe. Da würde ich als Fahrer schon mal vorsichtig werden.

Im Ernst?

Du würdest langsamer werden, wegen dem weißen "Etwas" auf dem Bild?

Dann bist du der beste und sicherste Fahrer, den ich je kennen lernen durfte.

Ich sehe auf dem Bild ehrlich gesagt nicht, schon gar keinen Hund.

Und der Tesla hat auch nicht auf das weiße etwas reagiert, sondern hat er schon dort die Person erkannt.

Zitat:

Der Robo verliert das Signal dann wieder und detektiert relativ kurz vor Vorbeifahrt das größere dunkle Objekt.

Hast du auf dem Bild den Mann schon erkannt?

Zitat:

Da er das aber nicht als Person einstuft (Vermutung meinerseits, Grund: bunten Fussgängern nähert er sich vorsichtig), fährt er volles Rohr dran vorbei (siehe Tacho).

Er fährt deshalb "volles Rohr" daran vorbei, weil der abstand des Fußgängers zur Fahrbahn deutlich größer ist als bei den beiden Joggerinnen.

Zitat:

Das selbe Verhalten auch bei 2:50. Auch da wird am Fussgänger vorbei fröhlich los beschleunigt.

Auch hier wurde der Jogger schon deutlich früher erkannt und er hatte genug Abstand zur Fahrbahn.

Außerdem hat der wagen minimal nach links gelenkt.

Was mich aber wundert ist, dass sich niemand darüber aufregt, dass der Wagen an STOP Schildern nicht komplett stoppt.

Hi,

Ich sehe schon, was Du zu rosa siehst, sehe ich zu schwarz. (nebenbei: vom Ultraschall hat MartinBru gesprochen).

Ob Abstand zu Fussgängern reicht oder nicht, ob wegen Farbe langsamer oder nicht, ob Radar für Personen reicht oder nicht etc. etc.. wir müssen uns da nicht drüber streiten. Das wird sich alles zeigen. Sobald mehr solche Fahrzeuge unterwegs sind, werde ich jedenfalls stärker auf auffällige Kleidungsfarbe achten.

Was mir neben den Stopschildern auch auffällt: die Tempo 35 Schilder würdigt es keines Blickes. Er fokussiert nur auf die gelben Tafeln. Scheinbar kommen allgemeine Tempolimits aus der Datenbasis. Aber DAS sind ja wirklich Kinkerlitzchen.

Weniger souverän finde ich noch: Für den Porsche von rechts im ersten Viertel des Videos scheint er eher zufällig anzuhalten.

bye

Deine Antwort
Ähnliche Themen
  1. Startseite
  2. Forum
  3. Auto
  4. Tesla
  5. Tesla Model S und Model X
  6. Warum wird nur auf dem Autopiloten von Tesla "rumgehackt"?