ForumFahrzeugtechnik
  1. Startseite
  2. Forum
  3. Wissen
  4. Fahrzeugtechnik
  5. Autonomes fahren: wer muss sterben?

Autonomes fahren: wer muss sterben?

Themenstarteram 19. Dezember 2014 um 17:45

Hallo zusammen,

eine Frage zu automonem fahren. Also fahren ohne Fahrzeugführer. Daran wird ja derzeit geforscht und entwickelt.

Nach welchen Kriterien soll entschieden werden, wer sterben muss bzw. verletzt wird?

Folgendes Szenario als Beispiel

Jemand befährt eine schmale Landstraße. Völlig unvorhersehbar springt ein Kind hinter einem Fahrzeug hervor auf die Fahrbahn. Zum Anhalten reicht der Weg nicht!

- Weicht man nach rechts aus, so kollidiert man mit einem 50 Jährigen Familienvater, der hinter dem geparkten Fahrzeug steht. Dieser würde zerquetscht.

- Weicht man nach links aus, so kollidiert man mit einem entgegenkommenden LKW. Nur man selbst würde sterben oder schwer verletzt.

- Alternativ überfährt man das siebenjährige Kind.

Als Fahrer - sei es mal eine 78 Jährige alleinstehende Dame - kann man sich definitiv keine Gedanken mehr darüber machen. Dafür reicht die Zeit nicht. Der Unfallausgang ist ein Zufall und Moralich in jedem Falle in Ordnung.

Doch wie enscheidet ein autonomes System das das Fahrzeug steuert?

Theoretisch liegen bald ja alle Informationen vor. Das Umfeld wird bestmöglich überwacht, aber es kann nur im physikalisch möglichen Rahmen gehandelt werden.

- nimmt das System den Tod des "Besitzers" in Kauf? Die Dame wäre neutral betrachtet sozial am wenigsten wertvoll. Dies ist jetzt übrigens nicht meine persönliche Meinung, sondern ein Fakt. Doch verkauft sich ein so handelndes Fahrzeug überhaupt?

- wird der Mann geschütz, weil er sich für seine Kinder und Ehefrau sorgen muss?

- wird das Kind geschützt, weil es noch die höchste Lebenserwartung hat?

- wird das Kind überfahren, weil es den geringsten Schaden verursacht?

Ich selbst möchte das Steuer nie aus der Hand geben, aber der Trend wird sich nicht stoppen lassen.

Was glaubt ihr, wie der Algorithmus handeln sollte?

Beste Antwort im Thema
am 21. Dezember 2014 um 9:41

Zur Ausgangsfrage:

Ein gutes automatisches, vernetztes und autonomes System (wie z.B. Skynet) wird die Wertlosig-, Nutzlosig- und Gefährlichkeit der menschlichen Existenz erkennen und versuchen, alle zu überfahren.

Vor so was müsst ihr Angst haben :D

918 weitere Antworten
Ähnliche Themen
918 Antworten

random wie auch sonst im leben:D

das ist am fairsten:p

Sehe ich auch so. Jede andere Lösung wäre menschenverachtend.

Hallo,

Was ist denn das für ein unmöglicher Tread.

Deswegen schreibe ich auch nichts zu eigentlichem Thema.

Seelze 01

Schleudersitz auslösen und Fzg notsprengen.

mfg

Ich denke, der TE hat einen entsprechenden Artikel in der jüngsten auto motor sport gelesen. ;)

Zum Thema: Den rechtlichen und ethischen Fragen wird man sich stellen müssen, wenn autonom agierende Fahrzeuge Realität werden sollen - und genau davon gehe ich aus. Man wird auch damit leben müssen, dass die Technik nicht perfekt ist und es zu Toten wegen technischer Fehler kommen wird. Die Frage ist u.a., ob es signifikant weniger sind als die Toten durch menschliche Fehler, die wir momentan haben.

Dein Szenario taugt nicht, weil es so gut wie niemals vorkommt. Sind ein bissel zuviele wenns.

Aber sei es drum: Der autonome Wagen würde nicht so schnell heranfahren, dass er nicht mehr reagieren könnte.

Unter Umständen hält er sogar an, um Hilfe anzubieten.

Zitat:

@AMenge schrieb am 19. Dezember 2014 um 19:06:40 Uhr:

Die Frage ist u.a., ob es signifikant weniger sind als die Toten durch menschliche Fehler, die wir momentan haben.

Dies zu erreichen, wird eines der Ziele der Entwickler sein.

Hier wird über ungelegte Eier gegaggert.

Zitat:

@Gleiterfahrer schrieb am 19. Dezember 2014 um 19:12:44 Uhr:

Aber sei es drum: Der autonome Wagen würde nicht so schnell heranfahren, dass er nicht mehr reagieren könnte.

Auch mit autonom agierenden Fahrzeugen lassen sich nicht alle Unfälle vermeiden, da nach wie vor Menschen am Straßenverkehr teilnehmen werden. Und wenn beispielsweise ein Kind innerorts zwischen zwei Autos auf die Straße läuft und somit nicht sichtbar war, dann kann auch ein autonomes Fahrzeug den Unfall nicht mehr verhindern. Es kann aber möglicherweise noch entscheiden, ob es das Kind überfährt, in die parkenden Autos steuert oder in den Gegenverkehr lenkt.

Themenstarteram 19. Dezember 2014 um 18:31

Zitat:

@AMenge schrieb am 19. Dezember 2014 um 19:06:40 Uhr:

Ich denke, der TE hat einen entsprechenden Artikel in der jüngsten auto motor sport gelesen. ;)

*

nein - die Frage kam im Bekanntenkreis auf

 

Zitat:

Zum Thema: Den rechtlichen und ethischen Fragen wird man sich stellen müssen, wenn autonom agierende Fahrzeuge Realität werden sollen - und genau davon gehe ich aus. Man wird auch damit leben müssen, dass die Technik nicht perfekt ist und es zu Toten wegen technischer Fehler kommen wird. Die Frage ist u.a., ob es signifikant weniger sind als die Toten durch menschliche Fehler, die wir momentan haben.

Dass es "dank" autonomem Fahren weniger Tote und Verletzte geben wird, das würde auch ich vermuten.

Aber viele, die es dann noch trifft sind im oben beschriebenen Sinn berechenbar. Und eben das sehe ich als Problem an.

Dass ein zufällig agierendes System eine Zulassung bekommt - das halte ich für unwahrscheinlich...

... macht ja auch nicht wirklich Sinn. Es wäre viel sinnvoller, eine Person allein im Fahrzeug von einer Brücke in den Tod zu stürzen, als eine Gruppe mit vier oder fünf Personen zu überrollen. Wer würde anders entscheiden?

Ethisch fragwürdig ist ja nur, dass ein Rechner mittels eines Algorithmus die Entscheidung trifft. Oder etwa nicht?

Aber die Fragestellung wird voraussichtlich gelöst werden müssen :confused:

 

Abgesehen davon:

Bei großen Katastrophen, bei denen die (Hilfs-) Kapazitäten nicht ausreichen wird auch zunächst denen geholfen, die Hilfe nötig haben und bei denen zugleich die große Wahrscheinlichkeit auf deren Überleben besteht. Das ist ethisch korrekt. Aber: Hier entscheiden Menschen :p

Zitat:

@AMenge schrieb am 19. Dezember 2014 um 19:19:10 Uhr:

. Und wenn beispielsweise ein Kind innerorts zwischen zwei Autos auf die Straße läuft und somit nicht sichtbar war, dann kann auch ein autonomes Fahrzeug den Unfall nicht mehr verhindern. Es kann aber möglicherweise noch entscheiden, ob es das Kind überfährt, in die parkenden Autos steuert oder in den Gegenverkehr lenkt.

Du vergisst hier, dass autonom fahrende Wagen miteinander vernetzt sind. Obwohl das Kind beispielsweise für den Menschen nicht sichtbar ist, ,,weiss,, der Wagen, dass dort ein Kind ist. Und dementsprechend seine Fahrweise anpassen.

Unfälle kann man sich hier nur noch vorstellen, wenn das System ansich einen Fehler hat.

Wie würdest Du denn als menschlicher Fahrer in der Situation entscheiden?

Ich würde wahrscheinlich panisch auf die Bremse treten und beten.

Selbst wenn ich eine ethische Entscheidung treffen könnte, wäre es doch extrem unsicher, ob die Physik und meine Fähigkeiten es mir noch ermöglichen, diese umzusetzen.

Auf absehbare Zeit wird der Computer oder meinetwegen Roboter effektiv auch nichts anderes tun (auch wenn er wohl nicht panisch wird), weil er ein ähnliches Problem hat. Er kann zwar schneller rechnen als ich, aber mein Umgebungsmodell ist seinem noch einige Jahr(zehnt)e voraus.

Macht aber nix: der Sicherheitsgewinn kommt daher, dass ein Computer nicht in der Aufmerksamkeit nachlässt. Kluge Entscheidungen dürfen ruhig später bzw. viel später folgen. Für's erste reichen die vorprogrammierten.

Zitat:

@ixe_und_tic schrieb am 19. Dezember 2014 um 19:31:16 Uhr:

Es wäre viel sinnvoller, eine Person allein im Fahrzeug von einer Brücke in den Tod zu stürzen, als eine Gruppe mit vier oder fünf Personen zu überrollen. Wer würde anders entscheiden?

der, der im fahrzeug sitzt:p

Zitat:

@ixe_und_tic schrieb am 19. Dezember 2014 um 19:31:16 Uhr:

Dass ein zufällig agierendes System eine Zulassung bekommt - das halte ich für unwahrscheinlich...

... macht ja auch nicht wirklich Sinn.

genausowenig wie ein system, das gottgleich ohne verfahren über menschenleben oder nur hohe sachwerte entscheiden soll. es sei denn, es gelingt, unfehlbarkeit zu proggen.

das stößt aber meines wissen noch auf kleine probleme. die bekommen ja noch niemals eine wettervorhersage über ein paar tage hinaus halbwegs hin.

ich würde jedenfalls in kein auto steigen, dass nach alter und bonität entscheidet:D

Zitat:

@ixe_und_tic schrieb am 19. Dezember 2014 um 18:45:33 Uhr:

Nach welchen Kriterien soll entschieden werden, wer sterben muss bzw. verletzt wird?

In deinem Szenario würde das Auto nach rechts lenken und mit den geparkten Autos kollidieren.

Von dem 50 Jährigen Familienvater dahinter weiß das Auto nichts, sonst wüsste es auch was von dem hervorspringendem Kind ;)

Deine Antwort
Ähnliche Themen
  1. Startseite
  2. Forum
  3. Wissen
  4. Fahrzeugtechnik
  5. Autonomes fahren: wer muss sterben?