• Online: 2.137

Autonom und schlau: Künstliche Intelligenz im Auto - Das Besserwisser-Auto bleibt stets Schüler

verfasst am

Künstliche Intelligenz war das Thema auf der Messe CES. Aber was heißt das? Werden unsere Autos künftig selbst entscheiden, was sie tun? Die Antwort: Ja, zum Teil.

Künstliche Intelligenz auf der CES 2017: Nvidia bietet mit Drive-PX-2 eine Plattform, die bereits einige Hersteller als Basis für selbstlernende Systeme nutzen Künstliche Intelligenz auf der CES 2017: Nvidia bietet mit Drive-PX-2 eine Plattform, die bereits einige Hersteller als Basis für selbstlernende Systeme nutzen Quelle: Fabian Hoberg für MOTOR-TALK

Las Vegas – Irgendwie soll alles intelligent werden. Die Kaffeemaschine weiß, wann sie mit welchem Wasserhärtegrad spülen muss, der Kühlschrank meldet sich, wenn er leer ist. Nach Meinung einiger Ingenieure soll das Auto bald selbst entscheiden, wann es in welcher Situation bremst oder lenkt – bei autonomen Fahrzeugen lebenswichtig, aber auch Gegenstand ethischer Diskussionen. Es geht um Künstliche Intelligenz, kurz KI.

Audi, Daimler, Toyota, VW, Here, Nvidia und Microsoft reden von nichts Anderem mehr. KI soll beim autonomen Fahren helfen. Derzeit erreichen die Hersteller einen Autonomiegrad der Stufe 2, gemäß der Skala, die die "SAE International" aufgestellt hat. Die Autos können zum Teil selbst einparken, die Spur halten und die Geschwindigkeit halten. Komplette Autonomie ist erst bei Level 5 erreicht. Dann darf dem Auto kein Fehler mehr passieren.

Audi hatte auf der CES in Las Vegas eine Studie dabei, die zumindest auf einem abgesteckten Parcours schon auf veränderte Bedingungen reagieren konnte Audi hatte auf der CES in Las Vegas eine Studie dabei, die zumindest auf einem abgesteckten Parcours schon auf veränderte Bedingungen reagieren konnte Quelle: Audi

Was planen die Hersteller?

Beispiel Audi: Der Hersteller plant mit dem Halbleiterhersteller Nvidia ein Auto, das 2020 auf den Markt kommen und lernfähig sein soll. Das Fahrzeug reagiert auf bekannten Strecken zum Beispiel auf eine geänderte Verkehrsführung, entscheidet also aufgrund vorhandener Daten. Die skalierbare „Nvidia Drive PX 2 AI“-Rechnerplattform verarbeitet Bilder mehrerer Kameras plus den Input der Lidar-, Radar- und Ultraschallsensoren. Die Technik "versteht", was um das Fahrzeug herum passiert. In Echtzeit, also dann, wenn es passiert. Das System kann das Fahrzeug auf hochgenauen Karten präzise lokalisieren und einen sicheren Fahrweg vorausplanen.

Volkswagen arbeitet ebenso mit der Nvidia-Technologie. Allerdings nicht nur beim Fahren, sondern auch bei der Menüführung. Das System soll vorausahnen, welche Schalter und Knöpfe der Fahrer als nächstes drückt und sie dann erst digital einblenden. Statt sich durch viele Menüs zu hangeln, soll das Fahrzeug die Nutzungsgewohnheiten analysieren und assistieren. Auch sollen die Programme künftig unterscheiden können, ob der Fahrer auf dem Weg zur Arbeit und in den Urlaub ist.

Daimler hat auf der CES ähnliche Konzepte vorgestellt. "Kognitive Fahrzeuge" sollen eigenständig Entscheidungen über Verkehrswege treffen können und die Wünsche der Insassen erkennen. Sogar über den Tellerrand sollen sie schauen und zum Beispiel die Verkehrslage analysieren. Und zwar nicht nur den Straßenverkehr. Unter Einbeziehung aller Verkehrsmittel soll am Ende ein individueller Mobilitätsplan für den Kunden stehen, abgestimmt auf dessen Tagesablauf und Verfassung. KI als Allheilmittel?

Was ist überhaupt KI?

Audis zFAS ist die Schaltzentrale fürs autonome Fahren und viele andere Elektronik im Auto. Das Modul soll upgradefähig sein Audis zFAS ist die Schaltzentrale fürs autonome Fahren und viele andere Elektronik im Auto. Das Modul soll upgradefähig sein Quelle: Audi Das Vorbild aller Künstlichen Intelligenz ist das menschliche Lernen. Können wir also auch IT-Systeme trainieren? Wir müssen sogar. „Der Begriff Künstliche Intelligenz führt in die Irre. Eine Maschine hat kein magisches Element“, sagt Alexander Mankowsky, Zukunftsforscher bei Daimler. Vielmehr müssen Autos alle Situationen vorher lernen. Deep Learning bedeutet tiefes und intensives Lernen, was wiederum viel Programmierarbeit voraussetzt.

„Dabei werden sehr viele Situation simuliert und ausprobiert, und zwar vorher am Computer“, sagt Mankowski. Danach werden sie bewertet und angepasst. Erst wenn alle Szenarien in der Simulation bewältigt werden, geht es auf die Straße. Fahrplanungskomponenten achten dann genau auf Straßenlinien oder die Geschwindigkeit. Beim Einsatz wichtig seien vor allem Sensoren und Kameras, die Aktionen permanent überwachen und notfalls die Fahrkomponenten korrigieren.

Für Gerhard Gumpoltsberger, Leiter Innovationsmanagement in der ZF-Vorentwicklung, bedeutet KI erstmal, dass die Software Daten richtig interpretiert. Sie muss Muster erkennen und daraus die richtigen Schlüsse ziehen. Wie Audi und Volkswagen, setzt auch ZF auf die Zusammenarbeit mit Nvidia. Der Computerhersteller hat einen Chip und die passende Software entwickelt, die das menschliche neuronale Netzwerk abbilden.

„Die Software ist nicht festgeschrieben, sondern kann weiter trainiert und entwickelt werden, dadurch lernt sie dazu“, sagt Gerhard Gumpoltsberger. „Wir benötigen KI und maschinelles Lernen für autonome Fahrzeuge, die in der Stadt fahren. Denn dort ist jede Situation anders – und das Auto muss auf alle Situationen vorbereitet sein, muss alle Situationen erkennen“, sagt er.

Kameras im Auto analysieren die Blickrichtung der Fahrerin und machen basierend darauf Vorschläge für wahrscheinlich anstehende Handlungen Kameras im Auto analysieren die Blickrichtung der Fahrerin und machen basierend darauf Vorschläge für wahrscheinlich anstehende Handlungen Quelle: Fabian Hoberg für MOTOR-TALK Es gehe aber um Wahrscheinlichkeiten. Alle Infos müssen hinterfragt und geprüft werden, KI entwickelt sie weiter. So reduzieren sich die vorab zu programmierenden Situationen: aus Trilliarden verschiedener Fälle müssen nur noch Millionen programmiert werden. Wenn bei einer Fahrt durch eine Pylonengasse ein Hütchen umfällt, kann das System daraus lernen und beim nächsten Mal beispielsweise die Geschwindigkeit drosseln.

Das Problem bei KI sei seiner Meinung nach aber nicht nur die Programmierung, sondern auch die Datenmenge. Die benötigte Rechenleistung fordert die Hardware: Die Platinen würden sehr heiß werden und benötigten ausreichend Kühlung. ZF arbeitet hier mit Alugussgehäusen und Konvektionskühlung.

Gesichtserkennung auf dem Vormarsch

Beruhigend für Zukunftsskeptiker und Endzeitromantiker: Eine Maschine kann ihr Programm nicht selbst schreiben, sondern "nur" dazulernen. „Ein perfekter Schachcomputer würde bei Mensch-ärgere-dich-nicht auch versagen“, sagt Mankowsky. Was im Autokontext nach Zukunftsmusik klingt und nach dem Ende der Fahrfreude, nutzen viele Computeranwender schon längst. Ein Beispiel ist die Gesichtserkennung von Fotoprogrammen.

Auch in Autos wird diese Technik bald einziehen. Mit Kameras im Innenraum, zum Beispiel im Rückspiegel, lassen sich Kopf und Mund filmen. Die Daten können ausgewertet und dann für Anwendungen genutzt werden. Auch ohne Spracherkennung erkennt dann das System durch Lippenlesen, was der Fahrer sagt, lernt stetig dazu – und bringt ihn nach dem Satz „Bring mich nach Hause“ genau dorthin. Womöglich zu seiner intelligenten Kaffeemaschine und dem mitdenkenden Kühlschrank.

Zurück zur Startseite

Avatar von Reifenfüller133278
30
Hat Dir der Artikel gefallen? 0 von 2 fanden den Artikel lesenswert.
Diesen Artikel teilen:
30 Kommentare: