Gefährlich sind nur die Fahrer. Das Fahrsystem macht sicher deutlich weniger Fehler als ein Mensch für das was es konzipiert wurde. Es hat seine Grenzen und die muss man kennen.
Flugzeuge fliegen seit Jahren mit Autopilot, auch starten und landen. Aber es braucht immer noch einen Piloten, der eingreifen kann, wenn etwas nicht so kommt für was das system designed wurde.
Den Leuten ist leider oft nicht bewusst, dass solche systeme keine 100% sicherheit bieten. Es ist technik und auch technik hat ihre grenzen, wie auch der Mensch. Das wird noch viele Jahre so bleiben.
Systeme wie es Tesla macht bietem dem Fahrer als einziges System ein brauchbares Feedback, was das system sieht. etc. Wo die Limite ist, das wird leider noch nicht stark genug gezeigt, obwohl es schon im Handbuch steht, auf dem Screen, beim Abholen etc. Aber für die heutige Welt ist das nicht genug.
Denke ein "Training", welches man mal für den Autopiloten machen müsste, wäre nicht verkehrt. Also das dem Benutzer ein Video gezeigt wird, er gewisse kleine Übungen machen muss oder dergleichen, bevor er das System aktivieren kann. Wenn er das absolviert hat und die Limite kennt, dürfte kaum noch was passieren.
Aber man muss auch mal festhalten, dass der Autopilot seit 2014/2015 auf dem Markt ist, seit dem gab es gerade mal 5 Autopilot Unfälle auf 300'000 Fahrzeuge. Wobei man hier wohl eher Fahrkm rechnen müsste. Aber selbst dann sieht man, dass der Autopilot aktuell noch deutlich sicherer fährt, als jeder Mensch.
Auch muss man sagen, dass bei diesen Unfällen klar der Fahrer die Schuld zu tragen hat, da er gegen jede Anweisung stark abgelenkt war. (am Handy)
[Von Motor-Talk aus dem Thema 'Grenzen des Autopiloten' überführt.]