• Online: 1.691

Autonome Autos: Technik, Funktionen, Status Quo - Autos ersetzen noch lange nicht den Fahrer

verfasst am

Die Entwicklung autonomer Autos hat ein Menschenleben gekostet. Ein tragisches Ereignis, das betont: Zwischen Wunsch und Wirklichkeit liegt noch viel Entwicklungsbedarf.

Hersteller, Zulieferer und Newcomer testen selbstfahrende Autos. Ein Unfall im US-Bundesstaat Arizona wirft Fragen auf Hersteller, Zulieferer und Newcomer testen selbstfahrende Autos. Ein Unfall im US-Bundesstaat Arizona wirft Fragen auf

Ein Gastbeitrag von Fabian Mechtel

Berlin – Es war unvermeidlich. Der autonome Testwagen des Anbieters Uber, der am Sonntagabend eine Fahrradfahrerin erfasste und tötete, hatte keine Chance. Die Polizei von Tempe im US-Bundesstaat Arizona bestätigte, dass nicht das Computerauto die Schuld am Unfall trug, sondern die Frau. Ein Video zeigt, wie sie aus dem Schatten direkt vor das Auto tritt – zu knapp für eine Vollbremsung. Die Bestätigung der Staatsanwaltschaft steht noch aus. Allerdings zeigt das Video auch, dass der Testfahrer abgelenkt war. Dazu später mehr.

Der Unfall war allerdings aus einem zweiten Grund unvermeidlich. Nicht speziell dieser, aber ein erster Crash mit zumindest schweren Verletzungen war langfristig zu erwarten. Denn autonome Autos befinden sich noch in der Entwicklung. Zur Perfektion fehlen Erfahrung und Technik. Zeit für einen Blick auf die vergangenen Jahre und den Status Quo.

Hersteller, Digitalkonzerne und Newcomer entwickeln parallel

Die Umfeldbeobachtung in einer Mercedes S-Klasse Die Umfeldbeobachtung in einer Mercedes S-Klasse Quelle: Daimler Bei der Autonomie schienen die großen Autokonzerne zu schlafen. Google und Apple werden die Autobranche überrollen, auslachen, zerlegen, hieß es. Passiert ist bisher nicht sehr viel. Die Anstrengungen, eigene Autos zu bauen: vergessen, abgeschrieben. Stattdessen konzentrieren sie sich auf das, was sie am besten können. Daten sammeln, sortieren und daraus Algorithmen ableiten. Sie liefern die Software, andere die harte Schale.

Es bleiben die anderen neuen Player: Uber, Waymo, Lyft und wie sie alle heißen. Dienste, die die Personenbeförderung revolutionieren wollen, indem sie billiger sind. Und weil ein Fahrer immer den teuersten Faktor im System Taxi darstellt, muss er im Hinblick auf den Fahrpreis weg. Deshalb versuchen die „Ride-Hailer“ krampfhaft, den autonomen Karren ans Fahren zu bekommen.

Und was treiben die Hersteller? Sie basteln ein paar Studien, zeigen Autonomie mal mit, mal ohne Lenkrad. Im Verborgenen werfen sie aber mit viel Geld um sich, weil sie das Rennen ebenfalls gewinnen wollen.

Das Ziel ist in allen Fällen gleich. Autos sollen die Umgebung aufnehmen, interpretieren, verstehen und sich selbstständig darin bewegen. Aber was muss ein Auto sehen, damit es autonom fahren kann? Viel wichtiger noch: Wie sieht es das? Und was macht es aus dieser Information?

Autonomes Fahren mit einer Vielzahl von Sensoren

Um die Umgebung in Echtzeit und hoher Auflösung zu beobachten, bedarf es hoher Computerpower. Die lässt sich derzeit nicht elegant in ein Auto integrieren Um die Umgebung in Echtzeit und hoher Auflösung zu beobachten, bedarf es hoher Computerpower. Die lässt sich derzeit nicht elegant in ein Auto integrieren Quelle: Daimler Was die Sensorik angeht, ist der aktuelle Audi A8 das fortschrittlichste Auto am Markt. Er kombiniert Kameras, Radarsensoren und erstmals einen Laserscanner. Gemeinsam mit einem rechenstarken Steuergerät soll er bald selbstständig im Stau mitschwimmen können – bis 60 km/h, auf einer Spur, ganz ohne Beteiligung des Fahrers. Der darf derweil fernsehen oder E-Mails lesen.

Sein Steuergerät führt die einzelnen Signale der Sensoren zusammen. Die Kameras liefern ein einfaches Bild, auf dem sich Entfernungen nur schwer interpretieren lassen. Die kommen deshalb von den Radarsensoren. Zusammen ergibt sich eine dreidimensionale Karte der unmittelbaren Umgebung, in der die Steuerung einzelne Objekte ausmachen und zuordnen kann.

Es ist im Übrigen gar nicht so leicht für das Auto, eine derartige Klassifizierung vorzunehmen. Wer höchste Auflösung und Echtzeit verlangt, der sieht sich heute noch einem vollgepackten Kofferraum gegenüber, dessen Rechenleistungsabwärme die Klimaanlage vor ein eher großes Problem stellt. In einem Serienauto ist das nicht praktikabel. Deshalb arbeiten aktuelle Oberklasselimousinen mit künstlicher Intelligenz. Grundlage ist eine Datenbank mit Millionen Beispielfotos.

Doch um Objekte klassifizieren zu können, muss man sie überhaupt erst erkennen. Was sich leicht sagt, ist in der Praxis gerne eine große Herausforderung. Es beginnt schon bei der Ampelfarbe. Je nach Winkel und Sonneneinstrahlung ist die nämlich schwer bis gar nicht zu erkennen. An Kreuzungen mit mehreren Ampeln kann außerdem die Zuordnung ein Problem darstellen.

Autos müssen sehen und sich orientieren

Die Umgebungsbeobachtung des Audi A8 im Überblick Die Umgebungsbeobachtung des Audi A8 im Überblick Quelle: Audi Für diese Fälle benötigt man extrem detaillierte Karten, auf deren Basis das Fahrzeug seinen Fahrkorridor möglichst auf eine Handvoll Zentimeter exakt berechnen kann. Der Dreh- und Angelpunkt für alle Entwicklungen des autonomen Fahrens ist der, dass das Auto präzise wissen muss, wo es ist. Keine einfache Aufgabe.

Denn die exakteste Karte ist in der Sekunde, in der sie digitalisiert wurde, alt und damit unbrauchbar. Die Umgebung verändert sich ständig. Das Auto muss also in der Lage sein, sich ein eigenes Bild zu machen. Das mag in der Sonne Südkaliforniens funktionieren. Im nebligen Schneeschauer auf dem Sustenpass? Eher nicht.

Es braucht deshalb – wie etwa im Audi A8 – eine Kombination verschiedenster Systeme: Kamera, Radar und Laser. Jedes einzelne System hat seine Vor- aber auch Nachteile, weshalb nur eine intelligente Fusion zu einem Ergebnis führen kann. Ein Lidar erzeugt in Kombination mit einer HD-Karte bereits ein brauchbares Bild. Mit Kameras und Radar wird es schon fast übersichtlich.

Laserscanner sind teuer oder ungenau

Das Problem: Im statischen Foto sieht das alles wunderbar aus. Nicht mehr so wunderbar ist die Sache, wenn das Auto in Bewegung ist. Einer der besten Laserscanner auf dem zivilen Markt (Velodyne HDL-64E) misst mit 64 Laserstrahlen, einer Auflösung von 0,4 Grad und einer Reichweite von 120 Metern. Das Ergebnis? Es ist okay.

Nach dem Crash: Dieses Testauto des Anbieters Uber erfasste eine Fahrradfahrerin Nach dem Crash: Dieses Testauto des Anbieters Uber erfasste eine Fahrradfahrerin Quelle: dpa / Picture Alliance Dieser Scanner kostet 80.000 Euro – fast so viel wie ein nackter Audi A8. Selbst ein Scanner wie der Velodyne Puck wäre für den Automobilsektor noch zu teuer. Er kostet 8.000 Euro und misst mit 16 Laserstrahlen, 2,0 Grad Auflösung und 100 Metern Reichweite. Auf dieses Ergebnis möchte man sich im Straßenverkehr nicht verlassen: Link zum Video.

Im Audi sitzt kein rotierender 360°-Laser, sondern ein statisches System mit einer Spiegelauslenkung von vier Laserstrahlen und einer Reichweite von 80 Metern. Spätestens hier wird klar, warum Audi die autonome Fahrfunktion auf wenige Verkehrssituationen beschränkt.

Experten sprechen in diesem Fall vom sogenannten „Level 3“ des autonomen Fahrens: Das Auto steuert für kurze Zeiträume in definierten Bereichen selbst. Die Verantwortung liegt in diesen Situationen nicht mehr beim Fahrer, sondern beim Hersteller. Die rechtliche Grundlage hierfür fehlt allerdings noch. Vollständige Autonomie gibt es erst im Level 5.

Autos fahren noch längst nicht autonom

Die Bildgebung ist heute nicht ansatzweise soweit, dass Fahrzeuge bald komplett eigenständig im Verkehr funktionieren können. In Testumgebungen fahren sie vielleicht. Möglicherweise sogar im durchorganisierten, geradlinigen Innenstadtverkehr Nordamerikas. Aber ganz sicher nicht bei hohem Tempo auf kleinen Landstraßen, in Autobahnbaustellen oder sonstigen alltäglichen Verkehrssituationen.

Zum fertigen Auto gehört übrigens noch mehr als Sensorik und Rechenpower. Verschuldet ein autonom fahrendes Fahrzeug einen Unfall, muss der Hersteller haften. Das gilt auch, wenn ein Defekt auftritt. Audi legt deshalb das Bremssystem redundant aus: Fällt der Bremskraftverstärker aus, baut ein Backup-Bauteil den Bremsdruck auf.

GM Cruise AV: Fünf Radarsensoren auf dem Dach des Fahrzeugs GM Cruise AV: Fünf Radarsensoren auf dem Dach des Fahrzeugs Quelle: General Motors Ein System, das nur in seinem eigenen Kosmos funktioniert, wenn alle Randbedingungen exakt auf das eigene Bedürfnis eingestellt sind, das ist – mit Verlaub – ein schlechtes. Bevor autonome Serienautos auf öffentlichen Straßen fahren, muss ihre Technik viel mehr können. Auch, wenn das der Radfahrerin nicht geholfen hätte.

Video: Der Unfall des Uber-Autos

Das veröffentlichte Video der Polizei von Tempe zeigt die Sekunden vor dem Unfall. Die Frau überquert die Straße, aus Sicht des Autos von links nach rechts. Sie taucht erst im Lichtkegel des Fahrzeugs auf, als sie bereits auf seiner Spur angekommen ist. Ein Fahrer sitzt zur Sicherheit hinter dem Lenkrad. Er ist abgelenkt und sieht die Frau zu spät. Es kommt zum Aufprall.

Die Aufnahmen werfen Fragen auf. War das Testauto zu schnell unterwegs, weil es nicht innerhalb des eigenen Lichtkegels anhalten konnte? Warum war der Wagen nicht mit Fernlicht unterwegs? Und warum haben Laserscanner und Radar die Person nicht erkannt?

Uber beobachtet das Umfeld des Autos mit einem Laserscanner, sieben Kameras und "360° Radar Coverage", also Radarsensoren rundum. Zur Einordnung: General Motors baut fünf Laserscanner auf das Dach des Cruise AV, der noch in diesem Jahr in Kleinserie entstehen soll.

GM würde keine fünf Laser am Dach montieren, wenn sie nicht nötig wären. Hier ist die konservative Automobilindustrie den jungen Techies vielleicht doch noch das ein oder andere Jahr an Erfahrung überlegen. Denn sie weiß: Selbst mit dem Sensor-Overkill fahren die Cruise AVs heute noch mit großer Zielsicherheit über rote Ampeln.

Hinweis: Dieses Video zeigt nicht den Aufprall selbst, könnte aber dennoch als verstörend wahrgenommen werden.

 

*****

In eigener Sache: Wir verschicken unsere besten News einmal am Tag (Montag bis Freitag) über Whatsapp und Insta. Klingt gut? Dann lies hier, wie Du Dich anmelden kannst. Es dauert nur 2 Minuten.

Avatar von MOTOR-TALK (MOTOR-TALK)
317
Hat Dir der Artikel gefallen? 13 von 19 fanden den Artikel lesenswert.
Diesen Artikel teilen:
317 Kommentare: