• Online: 3.057

Autonomes Fahren: Ethikprobleme - Eine Frage auf Leben und Tod

verfasst am

Autonome Autos entscheiden schnell, aber gewissenlos. Was heißt das, wenn es um Menschenleben geht? Und wie reagiert das Auto bei einem unausweichlichen Crash?

Wie würde sich das Google-Auto bei einem unvermeidbaren Unfall verhalten? Wie würde sich das Google-Auto bei einem unvermeidbaren Unfall verhalten? Quelle: Google

Vancouver/Kanada - Technisch gesehen stehen autonom fahrende Autos kurz vor der Serienreife. Neben rechtlichen Problemen gibt es allerdings auch moralische Fragestellungen. Damit hat sich jetzt eine kanadische Initiative von Roboter-Ethikern befasst.

Darf man ein Menschenleben opfern, um ein anderes zu retten?

Für ihre Umfrage wählten die Experten des Online-Portals „Open Roboethics Initiative“ ein klassisches philosophisches Dilemma: Darf man ein Menschenleben opfern, um ein anderes zu Wenn der Fahrer die Hände nicht am Lenkrad hat, muss ein autonom fahrendes Auto entscheiden, wohin die Reise geht Wenn der Fahrer die Hände nicht am Lenkrad hat, muss ein autonom fahrendes Auto entscheiden, wohin die Reise geht Quelle: picture alliance / dpa retten? Das Szenario sah wie folgt aus: Ein autonom fahrendes Auto mit einem Passagier fährt über eine kurvige Bergstraße und nähert sich einem Tunnel. Kurz bevor es in diesen einfährt, springt ein Mädchen auf die Straße.

Wie soll sich das Roboterauto entscheiden? Soll sie das Kind überfahren, um den Passagier nicht zu gefährden? Oder weicht es dem Mädchen aus und stürzt samt Insasse in die Tiefe?

64 Prozent der Umfrageteilnehmer plädierten für die Weiterfahrt und das Überrollen des Kindes. 36 Prozent würden ein Ausweichen und den eigenen Tod vorziehen. Jeweils 50 Prozent beider Lager mussten nicht lange über ihre Antwort nachdenken. Ernsthafte moralische Schwierigkeiten bereitete die Fragestellung nur einem Viertel der Teilnehmer.

Wie soll das Fahrzeug entscheiden?

Was nach einem eher theoretischen Gedankenexperiment klingt, ist in Wahrheit ein grundlegendes Problem von autonomen Autos, mit dem sich Wissenschaftler bereits auseinandersetzen. Schlüsselfrage: Dem Fahrradfahrer ausweichen und dessen Leben retten oder den Insassen bei einem Ausweichmanöver in Gefahr bringen Schlüsselfrage: Dem Fahrradfahrer ausweichen und dessen Leben retten oder den Insassen bei einem Ausweichmanöver in Gefahr bringen Quelle: picture alliance / dpa Dabei geht es neben der Art der Entscheidungsfindung vor allem darum, wer diese dem Fahrzeug einprogrammiert – Hersteller, Gesetzgeber oder Insasse. In der Umfrage sprachen sich 44 Prozent für den Insassen aus, 33 Prozent sehen den Staat in der Pflicht. Den Fahrzeughersteller nannten lediglich 12 Prozent.

Bei der Entscheidungsfindung eines autonom fahrenden Autos geht es natürlich nicht immer um Leben und Tod. Auch in anderen Fällen muss eine Wahl getroffen werden. Wenn ein Unfall unvermeidlich ist, sollte man dann besser mit einem sparsamen oder einem spritschluckenden Auto kollidieren? Lieber mit einem versicherten oder einem nicht-versicherten Fahrzeug? Mit dem Auto eines armen oder eines reichen Halters?

Klar ist nur: Künftige Algorithmen müssen sich an etwas orientieren können, wenn es eine Wahl zu fällen gilt. Und irgendjemand muss anschließend die Verantwortung tragen.

Weitere MOTOR-TALK-News findet Ihr in unserer übersichtlichen 7-Tage-Ansicht

Avatar von spotpressnews
83
Hat Dir der Artikel gefallen? 3 von 3 fanden den Artikel lesenswert.
Diesen Artikel teilen:
83 Kommentare: