Tödlicher Verkehrsunfall mit neuem A4

Auf der A3 im Bereich Würzburg kam es letzte Nacht zu einem tödlichen Unfall mit einem neuen A4. Das Fahrzeug fuhr scheinbar ungebremst mit hoher Geschwindigkeit auf einen vorausfahrenden Lkw auf. Über die Ursache kann bislang nur spekuliert werden.

Ich möchte auch keine Diskussion über funktionierende oder nicht funktionierende Assistenzsysteme anstoßen aber wenn man bei hoher Geschwindigkeit zB einschläft oder krankheitsbedingt nicht mehr handlungsfähig ist, dann hat man unter Umständen auch in einem modernen Wagen einfach keine Chance.

Mein Beileid an die Angehörigen.

http://...frankenaktuell.blogspot.de/.../...-aufprall-auf-lkw.html?m=1

Beste Antwort im Thema

Zitat:

@crishan schrieb am 3. August 2016 um 06:11:04 Uhr:


...aber wenn man bei hoher Geschwindigkeit zB einschläft oder krankheitsbedingt nicht mehr handlungsfähig ist, dann hat man unter Umständen auch in einem modernen Wagen einfach keine Chance.

Was hat dieser Unfall mit "hoher" Geschwindigkeit zu tun? 😕

Das Problem bei diesem Unfall war schlichtweg, dass bevor die Knautschzone des A4 Aufprallenergie abbauen konnte, er bereits mit der A-Säule in der Ladebordwand hing....und die A-Säule ist nunmal nicht dafür ausgelegt große Energiemengen mit ihren beiden Holmen aufzunehmen.

Dieses Schadensbild bekommst du mit relativ geringer Differenzgeschwindigkeit hin - da reichen schon deutlich weniger als 130km/h aus! Das ist nun nichts wirklich dramatisches - jeder der in einer Feuerwehr ist, die Autobahnabschnitte betreut - dürfte dieses Unfallszenario bzw. dessen Ausgang kennen!

107 weitere Antworten
107 Antworten

Nein, auch die NSA legt sich keine Kopien des Internets an.

Und schon garnicht von deutschen 08/15 Autofahrern.

Wir sind im V&S ... also, mach schon ... Quellenangabe 😁

Kannst du haben. Aber danach muss ich dich leider von den Kollegen, sagen wir mal "wegbringen" lassen.

Was schreibt ihr hier für komisches Zeugs über Festplatten. Wenn man formatiert, bedeutet das, daß die Indexierung entfernt wird. Die Daten bleiben vollständig erhalten. Man überschreibt alle bits mit 0en oder nimmt einen Algorithmus wie Gutmann. Bei SSDs macht man das nicht, weil jeder Schreibvorgang die Güte reduziert. Deshalb fragmentiert man die auch nicht.
Und was war das für ein Blödsinn: "0 bis F wird für jedes bit geschrieben"? Ein bit hat 0 oder 1. Da gibt es kein Hexadezimal.

Ähnliche Themen

Zitat:

@zille1976 schrieb am 9. August 2016 um 21:12:48 Uhr:



Zitat:

@HTC schrieb am 9. August 2016 um 20:33:03 Uhr:


Ein einfaches 0 oder F für jedes bit reicht aus, um die vorherigen Daten auf immer und ewig zu löschen, daran kann auch kein Programm was ändern.

Was bei einer SSD dummerweise nicht so einfach ist, wie es klingt.

Ich dachte bei einer SSD wird Zielort und Inhalt in einer Position auf dem Datenträger gespeichert, der nicht wieder freigegeben wird.... ist also einfacher das wiederherzustellen und vor allen zu löschen, weil da aktiv der Platz belegt wird....

Ist aber nur hörensagen, wenn Jemand genauere Infos hat, her damit!!!!!!

HTC

Zitat:

@downforze84 schrieb am 9. August 2016 um 22:40:35 Uhr:


Was schreibt ihr hier für komisches Zeugs über Festplatten. Wenn man formatiert, bedeutet das, daß die Indexierung entfernt wird. Die Daten bleiben vollständig erhalten. Man überschreibt alle bits mit 0en oder nimmt einen Algorithmus wie Gutmann. Bei SSDs macht man das nicht, weil jeder Schreibvorgang die Güte reduziert. Deshalb fragmentiert man die auch nicht.
Und was war das für ein Blödsinn: "0 bis F wird für jedes bit geschrieben"? Ein bit hat 0 oder 1. Da gibt es kein Hexadezimal.

byte sry... ist aber eben üblich, weil das System auf Hexadezimal aufgebaut ist und dementsprechend die Löschprogramme die Optionen "mit 0" oder "mit F" überschreiben anbieten...

Wichtig ist, daß die bits überschrieben werden. Sonst kann man die noch physikalisch auslesen. Ich würde bspw. nie eine kaputte HDD formatiert in die Tonne werfen. Einmal zu meiner Ausbildungszeit hat ein Kollege einen Pentium 3 mit 20 GB HDD angeschleppt. Als ich die zu Hause ausgelesen habe, tauchten allerlei Urlaubsphotos auf.

Das ist klar, wenn ich das "Inhaltsverzeichnis" lösche, dann kann ich immer noch im Buch rumblättern 🙂

Bei einer Partitionierung allerdings, vor allem mit anderen Größen der Partitionen oder andere Anzahl selbiger beiße selbst ich mir die Zähne aus. Eine Partitionierung konnte ich bis heute noch nie wieder rückgängig machen, obwohl die Daten zu 80-90% noch vorhanden sind...

HTC

Zitat:

@zille1976 schrieb am 9. August 2016 um 22:12:41 Uhr:


Kannst du haben. Aber danach muss ich dich leider von den Kollegen, sagen wir mal "wegbringen" lassen.

zitter zitter ... Ich stehe aber unter Naturschutz und der Glaube ist frei und so ... 😎😎😎

Mal ernsthaft. Wenn man da vom Schlimmsten ausgeht, wird man sicher nicht enttäuscht. Inwiefern die Datenmenge sinnvoll ist, ist nur eine Frage des Blickwinkels. Technisch geht sicher mehr als allgemein zugegeben wird. Für die Unfallrekonstruktion (da ist er - der Schwenk zurück ins Thema) steht genauso sicher nicht alles Denkbare zur Verfügung. Muss es ja auch nicht unbedingt.

Steht auch in keiner Relation zu dem Schaden. Wäre es eine Massenkarambolage mit zig Verletzten und einigen Toten dann würde man wahrscheinlich eher auf teuere technische Hilfsmittel zurückgreifen...

HTC

Auch nach einer Paritionierung kann man die Daten wiederherstellen, wenn diese nicht auf beiden Teilen verteilt sind. Das dürfte aber zu 95% nicht der Fall sein, wenn man nicht gerade 1% zu 99% aufteilt. Also ja, du hast recht.

Zu dem A4. Ich würde mich doch sehr freuen, wenn die Distanzsysteme vor Euro 6 Einzug gehalten hätten. Das zeigt aber schön die Prioritäten im Verkehrsministerium und auf europäischer Ebene.

Zitat:

@downforze84 schrieb am 9. August 2016 um 22:40:35 Uhr:


Man überschreibt alle bits mit 0en oder nimmt einen Algorithmus wie Gutmann.

Wobei mittlerweile erwiesen ist, dass Mehrfachüberschreiben nichts bringt.

Tests mit alten und aktuellen Festplatten haben gezeigt, dass eine Rekonstruktion nach bereits einmaligem Überschreiben nicht mehr möglich ist. Die Speicherdichte ist zu hoch.

Selbst mit externer Abtastung im Datenlabor ist die Wahrscheinlichkeit ein zusammenhängendes Byte wiederherszustellen bei unter 1%. Ein 20 KiloByte großes Word Dokument kann also nach überschreiben niemals wiederbelebt werden.

Mehrfachüberschreibung mit Mustern ist ein Relikt aus Diskettenzeiten und wird heute als Zeitversxhwendung angesehen.

Wusste ich aber bis vor kurzem auch noch nicht.

Zitat:

@HTC schrieb am 9. August 2016 um 23:00:54 Uhr:


Das ist klar, wenn ich das "Inhaltsverzeichnis" lösche, dann kann ich immer noch im Buch rumblättern 🙂

Eine gute Analogie, das muss ich mir merken.

Zitat:

Bei einer Partitionierung allerdings, vor allem mit anderen Größen der Partitionen oder andere Anzahl selbiger beiße selbst ich mir die Zähne aus. Eine Partitionierung konnte ich bis heute noch nie wieder rückgängig machen, obwohl die Daten zu 80-90% noch vorhanden sind...

Doch, doch, das geht. Auch rein softwaretechnisch, wenn man die richtige Software hat.

Sicher löschen nach BSI-Vorgaben heißt 7 x überschreiben, wobei das BSI hier übertreibt. Bei modernen Festplatten kann schon nach 1 x Überschreiben nix wiederhergestellt werden. Dafür gibt's eine Reihe Tools, auch kostenlose, die Funktion heißt meist "wipe".

Und richtig, bei SSDs ist das nicht so einfach. Viele SSD-Hersteller liefern dafür aber ein Werkzeug mit, man suche nach "Secure Erase" oder so.

Aber das ist jetzt doch zunehmend OT.

Ja. Den BSI-Kram mit dem IT-Grundschutz durfte ich in der Masterarbeit behandeln. Wer mal eine HDD einfach überschrieben hat, sitzt mindestens 6h davor. Und das ganze 7x? Irre.

Zitat:

Wobei mittlerweile erwiesen ist, dass Mehrfachüberschreiben nichts bringt.

Tests mit alten und aktuellen Festplatten haben gezeigt, dass eine Rekonstruktion nach bereits einmaligem Überschreiben nicht mehr möglich ist. Die Speicherdichte ist zu hoch.

In den 90ern gab es Festplatten bei denen das nötig war. Ich weiß aber nicht, was der physikalische Unterschied zu heutigen ist. Naja, das spielt heute eh keine Rolle mehr.

Zitat:

@HTC schrieb am 9. August 2016 um 22:44:59 Uhr:


Ich dachte bei einer SSD wird Zielort und Inhalt in einer Position auf dem Datenträger gespeichert, der nicht wieder freigegeben wird.... ist also einfacher das wiederherzustellen und vor allen zu löschen, weil da aktiv der Platz belegt wird....

Das Problem bei SSD mit Löschsoftware und Datenzugriff:

Jede SSD Speicherzelle hat nur begrenzt "Haltbarkeit". Nach einer Anzahl von X Schreibvorgängen wird die Zelle die Imfoemation nicht mehr stabil halten können.

Um diesen Alterungsprozess zu verlangsamen, haben die Hersteller einen Controller in die SSD eingebaut, der zwischen Betriebsystemtreiber und Speicherzelle sitzt, und Schreibzugriffe auf alle Speicherzellen der SSD gleichmäßig verteilt.

Davon weis das Betriebssystem aber nichts. Für das Betriebsystem hat die SSD zum Beispiel 100.000 Sektoren zu je 1 Byte (vereinfacht).

Speicher ich jetzt ein Foto von 100 Byte größe, speichert das Betriebssystem diese in Sektor 1-100 und erzeugt einen Directoryeintrag nach dem Muster "Foto 1" ab Sektor 1, Länge 100 Sektoren.

Der SSD Controller nimmt nun die 100 Bytes und verteilt dieses nach einem Schema auf der SSD. Zum Belspiel in Block 1,3,5,7...,199. Und merkt sich seinerseits, das wenn das Betriebssystem Sektor 1-100 anfragt, er in den ungraden Blöcken bis 199 suchen muss.

Hier wird jetzt das Problem deutlich. Das Betriebssystem denkt die Datei liegt in den ersten 100 Sektoren. Physikalisch liegt sie aber in Block 1-199 verteilt.

Deswegen bringt auch die Defragmentierung einer SSD nichts. Denn die Lage der Daten die das Betriebssystem kennt hat nichts damit zu tun wo die Daten physikalisch liegen. Wenn das Betriebssystem also die Datei schön hintereineinader packt, verteilt im Hintergrund des SSD Controller wieder alles wild durcheinander. Damit wird also, wie schon erwähnt, nur die Lebensdauer des SSD mit unnötigen Schreibzugriffen reduziert. Sortiert wird da aber nichts weil der Controller streng nach Schema verteilt.

Hier jetzt das Problem beim löschen: Wenn ich einem Tool sage "Foto 1" sicher löschen. Überschreibt dieses die Sektoren 1-100 mit "0" oder "1". Der Controller auf der SSD nimmt diesen Schreibbefehl und streng nach Schema nutzt er die Blöcke des SSD gleichmäßig. Er schreibt die 0en oder 1en also nicht in Block 1..199 wo das Foto liegt, sondern in Block 200..399, die bisher noch nicht genutzt wurden um die Blöcke gleichmäßig zu belasten. Überschreibe ich die Foto 1 mit dem Löschtool zwei mal, schreibt der SSD Controller dann in Block 400..599 usw.

Für das Betriebssystem ist der Seltor 1..100 sicher gelöscht, da 2 mal überschrieben. Physikalisch auf der SSD sind die Bilddaten aber auf ser Platte gefolgt von 100 Nullen gefolgt von 100 Einsen.

Deswegen bringen Defragmentierung und Löschtools nichts bei SSDs, weil das Betriebsystem keinen physikalischen Zugriff auf die Speicherzellen hat, sondern der Controller der SSD immer dazwischen hockt und sein eigenes Ding macht.

So aber ich denke das reicht auch als Exkurs in die EDV Welt.

Ähnliche Themen