- Startseite
- Forum
- Auto
- Tesla
- Tesla Autopilot vs. Systeme anderer Hersteller
Tesla Autopilot vs. Systeme anderer Hersteller
Sehr interessant: "The best or nothing" gegen den "Prügelknaben"
Beste Antwort im Thema
Zitat:
@radio schrieb am 27. Februar 2020 um 06:51:50 Uhr:
............sei es durch Kinder, Ehefrau, mittleren Alterns oder mal wieder zu wenig geschlafen.
Dann solltest du dir eine Alternative zum fahren suchen.
Besonders wenn du zu wenig Schlaf hast. :)
Ähnliche Themen
3860 Antworten
Zitat:
@hudemcv schrieb am 9. November 2019 um 08:56:30 Uhr:
Entscheiden kann es so aber nix.
Ist das ein Witz?!? Natürlich kann es damit etwas entscheiden - im einfachsten Fall bremsen. Und das fantastische ist, dass eben viele Sensoren ganz ganz unterschiedliche Schwächen haben. Und wenn man die gesamthaft kombiniert, hat man eben weniger Schwächen. Ich würde heute so weit gehen, dass ein Tesla auch nur mit Lidar fahren könnte (Schilder und Ampeln kann er ja noch nicht erkennen bzw. darf er berücksichtigen). Und die anderen Hersteller setzen eben nicht nur auf einen Sensor (siehe VW Video oben).
Der eine Sensor kann bspw. gut bei Nacht und Regen, das nächste findet Personen, wieder ein anderes stehende Objekte und ein anderes kann sehr gut zum Messen von Entfernungen und Kurvenwinkeln verwendet werden und so weiter. Aus technischer Sicht gibt es keinen Grund auf eine gute Ergänzung (und das wäre Lidar) zu verzichten.
Die Idee von Tesla zielt darauf ab, dass:
- Die Tesla Software jedes Objekt klassifizieren kann und die Situation interpretiert
- Die Qualität/Variabilität der Sensoren unter echten Umständen mit den menschlichen Sinnen vergleichbar sind
Bei der Erkennung steht und fällt alles mit den Daten. Auf einer Autobahn ist das leichter als in einer Stadt, in der ein maskierter Clown bei Karneval auf die Strasse rennt. Denn wenn es ganz blöd läuft, wird der vielleicht als Deko am Strassenrand interpretiert - weil das sonst auch immer so war. Natürlich werden die Systeme besser, aber mit besseren Sensoren würden sie natürlich noch besser...
Die Qualität der Kameras ist ein weiteres Problem. Da wäre zum einen die Reinigung, aber eben auch die Variabilität im Vergleich zu unseren Augen. Meiner Meinung nach sind unsere Augen den Kameras überlegen. Und es bringt überhaupt nichts sich Videos anzusehen und dann zu schauen ab wann der Computer ein Objekt erkennt - weil man nicht weiss wie ein Mensch die gesamte Szene wahrgenommen hätte.
Ich bleibe dabei: Ich würde mir ein Tesla mit Lidar wünschen - kann dann ruhig aufpreispflichtig sein. Aber die Sicherheit wäre es mir durchaus wert ein paar tausender auf den Tisch zu legen. Aber das geht natürlich nicht mit Teslas Einheitsstrategie.
Zitat:
@hudemcv schrieb am 9. November 2019 um 08:56:30 Uhr:
Bei Regen und Nebel sieht Lidar allerdings grenzwertig aus.
Optische Systeme haben natürlich Grenzen: Wenn kein Licht durch geht, geht kein Licht durch - fertig. Aber natürlich sind aktive Systeme (Lidar), die die Lichtstrahlen kodieren, erhbelich besser als passive Systeme (Kameras), die das nicht können. Das ist ja auch kein grosses Geheimnis... Wenn es wegen Wetterbeeinträchtigung ein System zuerst trifft, dann ist das ein passiv optisches System (meine IR Kameras am Audi versagen bspw. sofort). Lidar hält erheblich länger durch als eine Kamera. Das ist also jetzt eher ein Argument gegen Tesla.
Zitat:
@butl77 schrieb am 9. November 2019 um 08:01:17 Uhr:
Bis dahin wird noch viel Wasser die Donau hinunter fließen. :)
Viel ist relativ. Bei dem mittleren Donauabfluss in Wien von 1.900 m^3 pro Sekunden macht das noch ganz grob 9 Mrd Kubikmeter Wasser. Dann ist Neujahr und Tesla ist Feature Complete... Geniess also die letzten ruhigen Tage vor den Robotaxen ;)
Ich bin gespannt, wie viele ruhige Tage davor noch kommen werden. ;)
Jan, wir sind uns in Grunde schon einig. Es wird eh auf ein miteinander vieler Sensoren ankommen.
Was ich damit grundsätzlich aussagen wollte war, dass Menschen auch nur sehen und hören können. Der Rest ist Interpretation und "Erfahrung". Wenn das nicht mehr hilft, kommt Instinkt dazu.
Da Computer noch keinen Instinkt haben und dieser ja auch unser menschliches "Problem" ist, mitunter, wird es im autonomen Auto mehrere Sensoren geben.
Davon ab, kann auch ein Kameraauto, wenn es sich nicht sicher ist, anhalten. Das ist ja das einfachste.
Ich sehe in Lidar nur ein zusätzliches Hilfsmittel.
Lidar ist wie im Spiegelkabinett mit verbundenen Augen zu laufen wo man alles ertasten muss. Das allein hilft eben auch nicht viel.
Zitat:
@hudemcv schrieb am 8. November 2019 um 20:45:30 Uhr:
Lidar allein kann aber eben nicht sehen. Es kann ein Schild zB als Schild erkennen, aber nicht, was drauf steht.
Lidar sieht wie ein Auge, aber eben aktiv statt passiv.
Natürlich kann ein Lidar auch Schilder lesen, genauso wie auch die Spurmarkierung auf der Straße sichtbar sind. Man muss nur wissen wie es geht. ;)
Wir entwickeln gerade ein Verfahren für die Unterstützung des manuelle Semantische Segmentierung von 3D Lidar Punktwolken. Mit den Ergebnissen werden dann DNNs trainiert und getestet die dann Spurnarkierungen und auch Verkehrszeichen erkennen und teilweise klassifizieren.
Hier findet man mehr Informationen zur Verkehrszeichenerkennung mit Lidar Unterstützung.
Weitere Beispiele, wo insbesondere die Fusion das Ergebnis verbessert, weil mit Lidar sehr einfach die Form, Größe und Position
von Verkehrszeichen für die Einschränkung der ROI für die Detection in den Videobilder verwendet werden kann.. Damit sind Verkehrszeichen auf anderen Objekten sehr einfach auszufiltern.
https://www.google.com/url?...
https://www.google.com/url?...
Man bei Nutzung von Lidar mit wenig Rechenleistung und deterministische Algorithmen die Qualität des Ergebnisses von DNNs erheblich verbessern. Lidar wird von vielen Leuten völlig unterschätzt.
Und auch das Radar wird immer besser. Mit Microdoppler kann man Fußgänger, Radfahrer und andere Objekte einfach klassifizieren.
Wer derzeit und in den nächsten 5 - 10 Jahren nur auf Video mit alter Radar-Technik setzt schränkt sich bezüglich der ODD und Sicherheit erheblich ein. Da nützen auch viele TFlops Rechenleistung nichts.
ie erkennt ein Lidar, was auf Schildern geschrieben steht? Ist die Auflösung so dermaßen hoch?
Ich Frage wirklich aus Interesse.
Oder kann ein Lidar sogar unterschiedliche Farben durch das Licht-Echo erkennen?
Das wäre mir bisher unbekannt würde jedoch dazu führen, dass ich mich da mal genauer mit beschäftigen muss.
Bisher war ich der Auffassung, dass Lidar einfach wie Radar, aber eben mit Licht funktioniert. .
Was auf den Schilder steht zu lesen ist mangels Auflösung der auf den Markt befindlichen Sensoren höchstens im Nahbereich möglich. Man hat aber für jeden Punkt auf jeden Fall die Reflektivität.
Aber die Auflösung, insbesondere von Flash Lidar wird laufend gesteigert. Bis diese auf den Markt kommen kann man die Schilder in Gruppen klassifizieren, das Stopschild sogar direkt, und damit die videobasierte Erkennung unterstützen.
Hier findet man eine gute Zusammenfassung was mit Lidar heute möglich ist.
Es gibt auch japanische Hersteller, welche meinen, man könne es auch ohne Lidar machen, u.a. auch Nissan. Vermutlich wollen die Lizenzen umgehen. Aber die Lidar-Fahrzeuge holen mich wegen ihrem Aussehen bisher nicht vom Hocker. Da wäre ich froh, irgend eine Firma bringt mal was, welches mit dem Lidar auf Augenhöhe ist. So lange werde ich wieder mit den Händen und dem Kopf lenken.
Wieso sollte man mittels Lidar sowas wie Schilder lesen machen? Das muss man doch nicht.
Jedes Lidar System hat doch genausoviele optische Kameras zusätzlich wie Systeme ohne Lidar - Optische Systeme kosten doch - in Relation - fast nichts. Lidar ist doch vor allem dazu da einen "sicheren" (weil gemessenen) Grobüberblick zu gewinnen - also hier z.b. zu sagen an Position x,y steht ein Schild, eine Person, ein Tier ein Objekt mit den Dimensionen....
Dann kann man die Kamera nutzen um in dem Bereich gezielt zu Klassifizieren, was deutlich einfacher ist, wenn man weiss wo was mit welchen Dimensionen im Raum steht.
Lidar ist kein Ersatz für Optik sondern ein System das mit der Optik zusammenarbeitet und sicher > 98% der Möglichkeiten was da sein könnte dann im Vorgang bevor die Optik auswertet sicher ausschliessen kann.
Wenn Lidar z.b. sagt an Position x,y,z steht ein 5 Meter grosses Objekt, das anschliessend von der Optik ausgewertet wird dann weiss das optische System, auch auch wenn ich da einen Menschen eindeutig erkenne, das ist wohl eine Statue oder ähnliches.
Aus dem gleichen Grund, weshalb gute Karten und Car2X auch sinnvoll sein können: Es gibt Redundanzen, die die Sicherheit erhöhen, unterschiedliche Umgebungsbedindungen abdecken können und evtl. auch ein effizienteres (vorausschauenderes) Fahren ermöglichen. Es gibt selten zu viele Daten, aber ganz oft die falschen ;)
Am WE kam bei uns die 36.2.1 an und die Warnbaken-Anzeige in Baustellen (siehe Diskussion auf den vorigen Seiten - ist wohl bisher auf HW3-Fahrzeuge beschränkt) funktioniert gut, es erkennt also nicht nur Hütchen, sondern auch die bei uns üblichen, länglichen Warnbaken - konnte keinen Unterschied bzgl. Tag-/Nachterkennung feststellen.
Es werden auch z.B. zuverlässig einzelne Hütchen/Baken erkannt, die (oft sinnloserweise ohne echte Änderung/Gefährdung) noch irgendwo am Straßenrand stehen.
Zitat:
During a talk for PyTorch, an open-source machine learning library at Devcon, Karpathy gave a quick but very informative talk about how Tesla uses machine learning to train its neural networks toward the goal of full self-driving
(Incl. Video)
Zuverlässig erkennen heisst das System darf bei ~ 100.000.000 verschiedenen Einzelsituationen mir diesen Hütchen maximal 1x danebenliegen.
Bei weniger recht das dann nur für einen Assistenten, der überwacht werden muss.
Das kann nichtmal ein Mensch.
computer und Programme müssen aber genauer und schneller sein als ein Mensch.