Teil & Autonomes Autofahren eine Bedrohung der allgemeinen Verkehrssicherheit

Ich mache mir Gedanken und Zukunftssorgen um z.T. selbstfahrende Autos, die sich als verkehrsgefährdend betrachten lassen.
Ich fand u.a. einen bezeichnenden Satz von Manuel Perez Prada: „ Wer Menschen immer mehr Aufgaben beim Fahren abnimmt, der schwächt diese Schwachstelle noch mehr, denn die Aufmerksamkeit sinkt gegen Null (sein Hinweis: "Idiotensicherheit schafft Idioten"😉.

Ferner in dem Artikel über die neuste S-Kl.-Daimler „sich selbst durch den Verkehr zu lenken“ werfen sich mir Fragen auf.
Ist "Teilautonomes Fahren", vorerst die Hände bereits für kurze Zeit vom Lenkrad nehmen zu können, überhaupt legal ?
Wird also ohne Zulassung „illegalerweise“ nicht bereits erstmalig eine Technik bereitgestellt (glaube, TESLA bietet dieses als update gegen Aufpreis auch bereits an), die nicht auch verhängnisvolle Folgen für beteiligte Verkehrsteilnehmer haben kann ?
Das Daimler-Fahrzeug soll bei „Unklarheiten“ bereits eine "Notbremsung" selbstätig vornehmen, sofern der Fahrzeug-Lenker die Hände bei Warnsignalen nicht zurück ans Lenkrad führt. Verwirrend jedoch wird davon gesprochen, dass das Auto lediglich Sekunden ohne Lenkradberührung fahren würde und andererseits soll der Fahrer emails schreiben können, die sicherlich nicht sekundenschnell gemacht sein können.

Also, wenn im fließenden Verkehr ein PKW ( S-Kl. Daimler, TESLA) aus unersichtlichem Grund bremst, dann halte ich das für die kurz nachfolgenden PKW`S für unakzeptabel. Denn, wenn jemand während des Schreibens von Briefen den Verkehrsablauf gar nicht verfolgt hat, dann wird er beim Erscheinen eines Auto-Warnsignals den Verkehrsumstand binnen Millisekunden auch nicht mehr erfassen können, um „in der Verantwortung“ zu reagieren.

Ich behaupte, dass es illegal ist, wenn Fahrzeughersteller ohne gesetzliche Erlaubnis derart Technik anbieten (derzeit noch gegen Aufpreis), um ihre Käufer an diese Technik heranzuführen, die direkten Einfluß auf Lenkung und Bremsen nehmen kann und diese Fahrzeugführer jedoch für alles vollverantwortlich sein sollen. Das ist eine Verführung und Käufer werden den Herstellern bei Problemen/Unfällen wohl kaum in den Rücken fallen, wie sie es bei Navi-Benutzung und verbotenem Telefonieren während der Fahrt ja auch nicht tun.
Ich fand im Netz auch schon einen Artikel von Lennart S. Lutz über gravierende Rechtsprobleme fremdgesteuerten (auch teilautonomen) Fahrens.

Als gelegentlicher Mitleser schreibe ich im Forum hier heute diesen Beitrag würde gerne mal wissen, ob ihr meine Bedenken gegen derart technische Fahreingriffe teilen könnt.

PS
Weitergeführt könnte die Diskussion auch zu vollautonomen Fahren führen, jedoch halte ich derart computergesteuertes Autofahren für zu komplex, als dass eine Maschine mit Nullen und Einsen rechnend insbesondere in Städten "unauffällig" Auto fahren könnte.

Beste Antwort im Thema

Zitat:

@inzukunft schrieb am 9. September 2015 um 09:48:58 Uhr:


Ich mache mir Gedanken und Zukunftssorgen um z.T. selbstfahrende Autos, die sich als verkehrsgefährdend betrachten lassen.

Ich mache mir mehr Gedanken um Autofahrer, die wesentlich verkehrsgefährdender unterwegs sind als ein selbstfahrendes Auto das je können wird.

6678 weitere Antworten
6678 Antworten

Zitat:

@MikeyAA schrieb am 9. Dezember 2016 um 18:06:51 Uhr:



Zitat:

@Brunolp12 schrieb am 9. Dezember 2016 um 07:15:57 Uhr:


Genau das meinte ich mit echter Definition und was sich Menschen unter dem Begriff vorstellen - von dem Nachbau der Menge an Zellen eines Gehirns ist man noch weit entfernt. Nicht aber von Parallelität und konkreter Anwendung des Grundprinzips, auch auf heutigen Rechnern - bspw Lösungen aus dem Bereich der Grafik/Grafikhardware mit hunderten -oder inzwischen gar tausenden- parallelen Recheneinheiten.

Diese parallelen Recheneinheiten arbeiten aber wieder in sich sequentiell. Das Gehirn per se parallel. Also auch nur eine Simulation.
(...)
Multitasking ist nur scheinbar parallel. Da gibt es mehrere Programmzeiger, und zwischen denen wird im Millisekundenbereich gewechselt.

Parallelisierbarkeit von Programmen ist zwar weiterhin nicht trivial, aber diese Aussage von dir ist so nicht mehr richtig.

und - gerade in einem neuronalen Netz- wäre es -per Definition- möglich, dass jeder Kern seinen eigenen Job macht, unabhängig vom Nachbar- Kern.... denn die Analyse des jew. "Nachbar- Neurons" ist innerhalb des Netzes erstmal nicht wichtig - innerhalb derselben Stufe gibt es keine Verbindung untereinander, nur Ein- und Ausgänge aus anderen Stufen.

Zitat:

@Brunolp12 schrieb am 9. Dezember 2016 um 18:02:35 Uhr:



Zitat:

@Moewenmann schrieb am 9. Dezember 2016 um 15:47:25 Uhr:


Ich hätte es besser wussen müssen, Du pickst Dir wieder einzelne Aspekte heraus, widerlegst die, verkaufst Dich als den weisen Alles-Wisser und fühlst Dich dabei total gut

Deine ad hominem Argumente kannst du dir auch allmählich mal bitte sparen.

Wenn Du hinter Tatsachenbehauptungen immer gleich rhetorische Stilmittel vermutest, solltest Du Deine Motivation zur Teinahme am Thread hinterfragen. Das gilt insbesondere, wenn Du die behauptete Tatsache in derselben Antwort bestätigst.

Natürlich kann ich nicht wissen, wie Du dabei empfindest und hätte dazu nichts schreiben dürfen. Das tut mir leid und soll auch nicht wieder vorkommen.

Zitat:

@Brunolp12 schrieb am 9. Dezember 2016 um 19:03:20 Uhr:



Parallelisierbarkeit von Programmen ist zwar weiterhin nicht trivial, aber diese Aussage von dir ist so nicht mehr richtig.

Naja, zwischen den Hinterzimmern der Unis und was auf dem Markt ist - und auch für die Autonomie bei Autos eine Rolle spielt ist ein gewaltiger Unterschied.

Also ein Rechner arbeitet heutzutage immer seriell, ist leider Stand der Technik. Das ist auch mitunter ein Hauptproblem wieso wir mehrere Rechenkerne benötigen, deren Stränge an sich seriell arbeiten und die Serielle Verarbeitung aufteilen. Die Kommunikation zwischen den Kernen ist wieder seriell.

Man tut sozusagen das problem der seriellen Verarbeitung umgehen, indem man es splittet, Teilaufgaben gleichzeitig verarbeiten läßt und somit die Gesamtzeit der Verarbeitung verkürzt.

Parallele Verarbeitung wird schon erforscht soweit ich weiß, aber es wird nicht mehr auf ein binäres System beruhen, sondern ein Schritt in Richtung neuronales Netzwerk gehen oder dezentrale Rechensysteme... was ja teilweise schon bei Bot-Netzwerken passiert.

Hier steht was dazu:

https://de.wikipedia.org/wiki/Serielle_Daten%C3%BCbertragung

HTC

Ähnliche Themen

Zitat:

@Brunolp12 schrieb am 9. Dezember 2016 um 18:25:12 Uhr:



Das ist so nicht richtig. Prozesse müssen ohnehin erstmal parallelisierbar sein. Sind sie das, dann kann natürlich auch parallel verarbeitet werden (und wird auch). Zeitgleiche Bus- Zugriffe vermeidet man bspw mit Caches. Im Übrigen ist der Zugriff auf den Arbeitsspeicher idR parallel, nicht seriell.
Mehrkern- Prozessoren sind seit 10 Jahren im jeden 08/15 PC normal.

Naja mehrere wenige Mehrkern-Prozessoren, die in sich unabhängig arbeiten, haben eher mit Netzwerktechnik als mit neuronalen Systemen zu tun.

Interessant wird es, wenn diese gleichzeitig mit den selben Speicherbereichen arbeiten würden.

Aber derzeit ist eine Applikation einem Prozessor, und ein Speicherbereich einer Applikation klar zugeordnet.

Wenn sich daran eine Applikation nicht hält, führt es zu der aus Windows-Systemen bekannten Schutzverletzung. Wenn dies noch für heikle Dinge passiert wie Treiber für Grundgeräte sogar zu den bekannten und beliebten Blue Screens...

Zitat:

@MikeyAA schrieb am 9. Dezember 2016 um 21:43:26 Uhr:



Zitat:

@Brunolp12 schrieb am 9. Dezember 2016 um 19:03:20 Uhr:


Parallelisierbarkeit von Programmen ist zwar weiterhin nicht trivial, aber diese Aussage von dir ist so nicht mehr richtig.

Naja, zwischen den Hinterzimmern der Unis und was auf dem Markt ist - und auch für die Autonomie bei Autos eine Rolle spielt ist ein gewaltiger Unterschied.

😰 Hinterzimmer!?!? 😰

Mehrkern- CPUs sind seit 10 Jahren selbst im Heim- PC Standard. Die parallele Ausnutzung dieser Kerne ist damit inzwischen entsprechend gewachsen. Die dazu nötigen Mechanismen sind in diversen Programmiersprachen längst fest verankert.

Zitat:

@MikeyAA schrieb am 9. Dezember 2016 um 21:54:02 Uhr:


Naja mehrere wenige Mehrkern-Prozessoren, die in sich unabhängig arbeiten, haben eher mit Netzwerktechnik als mit neuronalen Systemen zu tun.

Es ging um die Frage, ob die Nutzung von vielen Kernen Nutzen brächte und möglich sei.

Die Antwort ist: ja.

Mehrkerne erfordern entsprechende Skalierbarkeit/Parallelisierbarkeit von Abläufen. Daran muss der Entwickler sich gewöhnen, wenn dies genutzt werden soll. Das ist aber kein Hexenwerk mehr und wird auch in entsprechend vielen Programmen genutzt.

Zitat:

@MikeyAA schrieb am 9. Dezember 2016 um 21:54:02 Uhr:


Interessant wird es, wenn diese gleichzeitig mit den selben Speicherbereichen arbeiten würden.
Aber derzeit ist eine Applikation einem Prozessor, und ein Speicherbereich einer Applikation klar zugeordnet.

Nein. Stimmt so nicht.

Natürlich müssen die Abläufe synchronisiert sein, die Daten/Speicherinhalte müssen sauber & konsistent einer Unterroutine zugeordnet bleiben. Aber dass der Schnitt nur applikationsweise erfolge, das stimmt seit Jahren nicht mehr.

Zitat:

@Brunolp12 schrieb am 9. Dezember 2016 um 21:59:22 Uhr:



Zitat:

@MikeyAA schrieb am 9. Dezember 2016 um 21:43:26 Uhr:



Naja, zwischen den Hinterzimmern der Unis und was auf dem Markt ist - und auch für die Autonomie bei Autos eine Rolle spielt ist ein gewaltiger Unterschied.

😰 Hinterzimmer!?!? 😰
Mehrkern- CPUs sind seit 10 Jahren selbst im Heim- PC Standard. Die parallele Ausnutzung dieser Kerne ist damit inzwischen entsprechend gewachsen. Die dazu nötigen Mechanismen sind in diversen Programmiersprachen längst fest verankert.

Es geht doch nicht um Mehrkern-PCs...

Mehrkern-PCs sind nicht parallel, sondern nur mehrere serielle "Maschinen" vernetzt.

Bruno, du stellst alles so dar, wie es die Marketingabteilungen der Hersteller verzapfen, aber das entspricht nicht der Realität.

Gibs auf, das ist erstens schon sehr OT und zweitens entspricht es nicht der Vision der Gegenwart/Zukunft die man gerne hat/haben würde.

Bsp: Man schafft es nicht ein vernünftig funktionierendes Feuerzeug zu bauen, will aber auf dem Mars...

Aber es gibt paralleles Handeln eines Computers: Bluescreen, Unbekannter(was ist ein bekannter Fehler ??? 🙂 ) Fehler und Shutdown in einem... Gleichzeitig hat sich ein Teil eines Treibers selbstständig zerstört. Das nenne ich mal Multitasking 🙂

HTC

Zitat:

@HTC schrieb am 9. Dezember 2016 um 21:46:46 Uhr:


Also ein Rechner arbeitet heutzutage immer seriell, ist leider Stand der Technik. Das ist auch mitunter ein Hauptproblem wieso wir mehrere Rechenkerne benötigen, deren Stränge an sich seriell arbeiten und die Serielle Verarbeitung aufteilen. Die Kommunikation zwischen den Kernen ist wieder seriell.
Man tut sozusagen das problem der seriellen Verarbeitung umgehen, indem man es splittet, Teilaufgaben gleichzeitig verarbeiten läßt und somit die Gesamtzeit der Verarbeitung verkürzt.

Das stimmt zwar im Prinzip, aber indem man die Verarbeitung "in Teilaufgaben splittet" (wie du es nennst) erreicht man ja gerade die Parallelisierbarkeit, welche es ermöglicht, Programmteile auf verschiedene CPUs oder Kerne zu verteilen.

Dies ist bspw bei neuronalen Netzen sehr wohl möglich.

und nein, in einem Thread wird der Code vielleicht immer "seriell" abgearbeitet - für "einen Rechner" (wie du sagst) gilt dies aber keineswegs.

Zitat:

@HTC schrieb am 9. Dezember 2016 um 21:46:46 Uhr:


Parallele Verarbeitung wird schon erforscht soweit ich weiß....

😕 seit Jahren Standard bspw. in .NET und Java.

Zitat:

@HTC schrieb am 9. Dezember 2016 um 21:46:46 Uhr:


aber es wird nicht mehr auf ein binäres System beruhen, sondern ein Schritt in Richtung neuronales Netzwerk gehen oder dezentrale Rechensysteme... was ja teilweise schon bei Bot-Netzwerken passiert.

Bot Netze haben damit rein garnichts zu tun.

Zitat:

@HTC schrieb am 9. Dezember 2016 um 21:46:46 Uhr:


Hier steht was dazu:
https://de.wikipedia.org/wiki/Serielle_Daten%C3%BCbertragung

Was eine serielle Übertragung ist, ist bekannt. Aber diese Information passt nicht zum Problem.

Zitat:

@HTC schrieb am 9. Dezember 2016 um 21:46:46 Uhr:



Parallele Verarbeitung wird schon erforscht soweit ich weiß, aber es wird nicht mehr auf ein binäres System beruhen, sondern ein Schritt in Richtung neuronales Netzwerk gehen oder dezentrale Rechensysteme... was ja teilweise schon bei Bot-Netzwerken passiert.

Ja, Botnetze sind ein (leider) interessantes Thema.

Aber jetzt entfernen wir uns schon wieder vom Thema.

Wobei Botnetze nah am C2C Thema liegen, wo Millionen von Autos kommunizieren und sich vor Gefahren warnen oder die Verkehrslage kommunizieren.

Wichtig ist letztlich nur, was für Autos jetzt und in naher Zukunft eine Rolle spielt.

Zitat:

@MikeyAA schrieb am 9. Dezember 2016 um 22:06:03 Uhr:



Zitat:

@Brunolp12 schrieb am 9. Dezember 2016 um 21:59:22 Uhr:


😰 Hinterzimmer!?!? 😰
Mehrkern- CPUs sind seit 10 Jahren selbst im Heim- PC Standard. Die parallele Ausnutzung dieser Kerne ist damit inzwischen entsprechend gewachsen. Die dazu nötigen Mechanismen sind in diversen Programmiersprachen längst fest verankert.

Es geht doch nicht um Mehrkern-PCs...
Mehrkern-PCs sind nicht parallel, sondern nur mehrere serielle "Maschinen" vernetzt.

Was sind denn für dich "Mehrkern- PCs"?

Es geht um neuronale Netze, welche durch sehr viele Rechenkerne eines Systems simuliert werden und um die Behauptung, soetwas sei -schon wegen der Parallelität der Verarbeitung- Zukunftsmusik.
Fakt ist jedoch, dass soetwas Standard- Bestandteil vieler Programmiersprachen ist und der Entwickler ganz normal davon Gebrauch machen kann, wenn es sinnvoll ist und die Teil- Aufgaben hinreichend parallelisierbar sind.

Zitat:

@MikeyAA schrieb am 9. Dezember 2016 um 22:09:07 Uhr:


Bruno, du stellst alles so dar, wie es die Marketingabteilungen der Hersteller verzapfen, aber das entspricht nicht der Realität.

Vielleicht reden wir hier aneinander vorbei ... Aber das hat rein garnichts mit "Marketing" zu tun, sondern mit Software/Entwickler- Alltag.

Du redest wohl von Multithreading... Da hast du eingeschränkt recht. Innerhalb des Prozessors werden die Daten parallel verarbeitet (wobei es meist nur eine Aufgabe ist, die verteilt wird).

Hier mal die Erklärung dazu; ist etwas technisch aber nachvollziehbar:

https://de.wikipedia.org/wiki/Multithreading

Selbst wenn ich das als wirkliches Multitasking akzeptiere, müssen die Daten trotzdem durch mindestens einer Bridge, und es passiert wieder nur seriell...

Im Großen und Ganzen versteht der Rechner eigentlich genau zwei Zustände: Ein und Aus, aber diese können nicht gleichzeitig stattfinden.

HTC

Also ich bin kein Informatiker...
Wo ist der Unterschied zwischen paralleler Verarbeitung und serieller Verarbeitung, wenn die serielle Verteilung "Bridge" mit ihrer Performance nicht auf dem kritischen Pfad liegt?
Alpha Go ist mit "parallel" arbeitenden CPUs im 4-stelligen Berreich und einen Stall von Grafikkarten eines der KI Vorzeigesysteme.

Zitat:

@HTC schrieb am 9. Dezember 2016 um 22:30:04 Uhr:


Du redest wohl von Multithreading... Da hast du eingeschränkt recht. Innerhalb des Prozessors werden die Daten parallel verarbeitet (wobei es meist nur eine Aufgabe ist, die verteilt wird).

Aber genau darum geht es: um Verteilung von Aufgaben auf viele Kerne oder CPUs (was heisst da "

nur

eine Aufgabe"?)

Zitat:

@HTC schrieb am 9. Dezember 2016 um 22:30:04 Uhr:


Selbst wenn ich das als wirkliches Multitasking akzeptiere, müssen die Daten trotzdem durch mindestens einer Bridge, und es passiert wieder nur seriell...

Das ist nicht das Problem.

Der Punkt ist eher, dass man bei vielen, in Teilaufgaben zerlegten Abläufen, am Ende doch das Ergebnis erst dann hat, wenn alle Teile beendet sind. Das ist aber trotzdem schneller und bspw bei neuronalen Netzen zur Objekterkennung auch kein Problem.

Zitat:

@HTC schrieb am 9. Dezember 2016 um 22:30:04 Uhr:


Im Großen und Ganzen versteht der Rechner eigentlich genau zwei Zustände: Ein und Aus, aber diese können nicht gleichzeitig stattfinden.

Ein bio- Neuron kann übrigens auch nur "feuern" oder "nicht feuern".

Mit der hier besprochenen Parallelisierbarkeit von Aufgaben hat das aber nichts zu tun. Man hat ja nicht nur einen Rechenkern und nicht nur ein Bit.

NVidia kommt aus dem Umfeld "Grafikkarten" (die Nvidia Titan X hat übrigens 3584 Kerne - wieso sollten die nichts bringen und nicht nutzbar sein?), hat aber inzwischen auch Systeme auf dem Markt, die für die Nutzung von autonom- Fahrsystemen gedacht sind.

Ähnliche Themen