• Online: 3.455

MOTORTESTS.de - Test und Erfahrungsberichte aus der MOTOR-TALK Community

04.08.2009 19:24    |    taue2512    |    Kommentare (15)    |   Stichworte: Fernsteuerung, Robotik, UAV

Wer kennt und fürchtet nicht das Szenario, das als Basis der bekannten Terminator-Filmreihe verwendet wird? Maschinen erheben sich zum Aufstand über die Menschheit, führen Kriege. Wenn es nach dem Willen der Militärs geht, wird diese potentielle Gefahr zunehmend größer.

 

Der unbewaffnete GlobalHawkDer unbewaffnete GlobalHawk

 

Es gibt bereits heute schon eine Reihe von Waffensystemen - die zumindest als Defensiv-System - vollkommen eigenmächtige Entscheidungen treffen können. Das sich solche Maschinen aber auch Mal gefährlich irren können zeigen Vorfälle wie der Iran-Air-Flug 655 im Jahre 1988, wo das defensive und offenbar zu dem Zeitpunkt noch nicht vollkommen ausgereifte automatisierte Verteidigungssystem Namens "Aegis" einer amerikanischen Fregatte den Airbus als einen feindlichen Militär-Jet identifizierte und eine Abschußempfehlung an die Crew gab. In diesem Fall waren es noch Menschen, die letztendlich den Knopf für den Raketenstart drückten und dem Computer quasi auf den Leim gingen, aber seitdem ist die Technik rasant vorangeschritten und die Maschinen immer eigenständiger und intelligenter.

 

Die bewaffnete ReaperDie bewaffnete Reaper

 

Im Jahr 2006 vermeldete Israel zum Beispiel den ersten erfolgreichen Einsatz einer Drohne, der auf den gezielten Tod eines Menschen ausgerichtet war: Der halbblinde im Rollstuhl sitzende Hamas-Führer Scheich Yassin wurde dabei getötet. Die Drohne markierte das Ziel und ein Helikopter feuerte eine Hellfire-Rakete ab, Krieg als Videospiel sozusagen und natürlich traf es hier auch wieder unbeteiligte.

 

Jetzt werden die Stimmen immer lauter, die eine internationale Resolution für den Einsatz solcher "Tötungsmaschinen" fordern.

 

 

Einer der wichtigsten Fürsprecher ist Noel Sharkey von der University of Sheffield, nach seiner Meinung führt die Einführung von immer mehr Robotik bei Verteidigungssystemen zu immer mehr Gefahren für unbeteiligte Zivilisten. Die einfachen Freund-Feind-Erkennungssysteme sind schon über 50 Jahre alt und laut neuesten Pressemeldungen wollen die USA nun verstärkt dazu übergehen, die Verantwortung über einen Tötungsbefehl und die damit im Zusammenhang stehenden ethischen Probleme von den Schultern der Soldaten zu nehmen.

 

"Roboter, die frei darüber entscheiden können wo sie töten, wen sie töten und wann sie töten stehen zur Zeit sehr hoch auf der Wunschliste der Militärs", sagt Professor Sharkley während einer Konferenz in London. Das Problem ist das diese Systeme alle auf künstlicher Intelligenz basieren und die Entscheidungsträger haben manchmal ein etwas verzerrtes Bild von eben dieser artifiziellen Intelligenz - geprägt durch Science-Fiction-Literatur und Hollywoodfilme.

 

Taranis (ab 2011)Taranis (ab 2011)

 

Und Leute wie Sharkley müssens schließlich wissen, denn im Rahmen seiner Tätigkeit an der Universität beschäftigt er sich vor allem mit den psychologischen Traumata von UAV-Piloten und deren Gewissensbisse wenn sie einige Tausend Kilometer vom eigentlichen Schauplatz entfernt einen Menschen töten - per Joystick.

 

"Die Leute, die diese Unmanned Aerial Vehicles (UAV's) steuern sitzen da den ganzen Tag, gehen nach der Arbeit nach Hause und Essen mit Ihren Familien am Abend", fügt er hinzu.

 

DesertHawkDesertHawk

 

"Es ist schon eine Art ungerechter Krieg - wobei Kriege niemals gerecht sind - und der Charakter des Krieges wird durch die Technik drastisch verändert."

 

Die Weiterentwicklung der Technik hat aber mitnichten das Leben unbeteiligter Zivilisten sicherer gemacht, im Gegenteil: Die Qualität der militärischen Aufklärung  ist dieser schnellen Entwicklung offenbar nicht hinterhergekommen. Zwischen 2006 und 2009 wird die Gesamtzahl von Drohnenangriffen alleine in Pakistan auf ungefähr 60 geschätzt, wobei neben den 14 mutmaßlichen Terroristen als Hauptziele über 687 Zivilisten getötet wurden.

 

CasperCasper

 

Wenn nun also bald die Maschinen vollkommen eigenständig entscheiden, verschieben sich auf einen Schlag gleich mehrere Parameter: Maschinen haben ein Problem mit der Freund-Feind-Erkennung und können nicht die Verhältnismäßigkeit der notwendigen Mittel einschätzen um einen militärischen Vorteil in der aktuellen Situation zu erlangen. 

 

Die US Air Force hat nun gerade ihren "Unmanned Aircraft Systems Flight Plan 2009-2047" Anfang Juli vorgestellt, in dem vollkommen autonome Angriffsjets geplant sind. Das Dokument empfiehlt das in Zukunft die Menschen immer stärker nur noch in einer Rolle "der Überwachung und Ausführung von artifiziellen Entscheidungen" vorkommen sollen und nicht mehr selber Entscheidungen treffen sollen. 

 

"Fortschritte in der AI-Programmierung werden es ermöglichen, das die UAV's in Zukunft im Rahmen gesetzlicher Bestimmungen autark agieren und reagieren könnnen - ohne Steuerunsimpulse des Menschen" ist ferner im besagten Bericht zu lesen. Sowas mach Angst vor der Zukunft. Aber nicht nur die amerikanischen Streitkräfte rüsten in diesem Sektor auf, denn Israel hat jüngst eine Drohne namens "Harpy" vorgestellt: Ein vollständig autonomes UAV-System, das Sturzbomberangriffe auf Radarstellungen ohne jegliches menschliches zutun ausführt.

 

 

Ich persönlich bin jetzt mit meinem Fernsteuerungsprojekt des PASSAT CC zwar nun noch nicht so weit, das das Auto später eigenständig Entscheidungen treffen oder sogar fahren kann. Theoretisch bin ich mir aber bewußt, das mit meiner Software und der Fernsteuerung jeder Volkswagen mit Spurassistent zur einer ressourcenschonenden Waffe für z.B. Terroristen umgebaut werden kann, wenn man in den Kofferraum ausreichend Düngemittel-/Dieselgemisch und einen Zünder auf einen freien Fernsteuerungskanal legt.


04.08.2009 19:47    |    Qarks

Laut einer vor ein paar Monaten ausgestrahlten Doku war ein Bedienungsfehler des Aegis Systems verantwortlich für die falsche Identifikation, nicht ein Fehler im System selber.

 

Just4Info


04.08.2009 20:00    |    taue2512

Zitat:

Laut einer vor ein paar Monaten ausgestrahlten Doku war ein Bedienungsfehler des Aegis Systems verantwortlich

Bedienungsfehler vielleicht deshalb, weil die Besatzung aufgrund der Aegis-Meldung wegen der Identifikation der AIRBUS als vermeintliche F14 damals lediglich auf militärischen Frequenzen statt den zivilen Kommunikationsbändern versucht hat mit dem Ziel einen Kontakt aufzubauen, bevor der rote Knopf gedrückt wurde. ;)


04.08.2009 20:08    |    Qarks

Der Bedienungsfehler betraf die IFF Abfrage, die der Radartechniker von Hand durchgeführt hat, dadurch kamen dann die Verwirrenden Identifizierungen zustande. Es wurden sowohl ein Zivilflugzeug als auch eine Militärmaschine identifiziert, weil der Trigger auf die nahe abgestellten F14 gerichtet war, während das Radar den Airbus verfolgt hat. Außerdem wäre soweit mir bekannt damals gar keine direkte Kontaktaufnahme möglich gewesen, weil das Schiff zu dem Zeitpunkt nicht auf den zivilen Frequenzen funken konnte und der Airbuspolit auf die Warnungen auf der Notfallfrequenz nicht reagiert hat.


04.08.2009 20:14    |    Halbgott

Super Artikel. Man kann nur hoffen, dass Menschen immer das letzte Wort haben und Maschinen nie autonom arbeiten/töten dürfen. Aber die Effizienz steigt halt enorm.

Wer weder Schlaf noch Nahrung benötigt, ist einfach "besser". Und zudem besser zu panzern.

 

Zum Thema


04.08.2009 23:23    |    aufallenvieren

Die Amis haben nen Vegetarier Terminator gebaut.. :D LOL


05.08.2009 06:19    |    Halbgott

Sozusagen einen grünen T101 :D


05.08.2009 08:30    |    Letti90

alter schwede.....

 

die amis werden auch immer grenzdebileler :D:D:D:D:D:D:D:D

 

 

zurück zum thema:

erschreckend! aber was am erschreckendsten ist, dass 3/4 der weltbevölkerung keine ahnung haben, was unsere supergehirne da entwickeln (können).


05.08.2009 11:59    |    aufallenvieren

Meinst das 1/4 der Weltbevölkerung PssatCCTDIDSGs´Blog ließt? :eek:

 

:D;)


05.08.2009 12:46    |    UHU1979

Unbemannte Kampfgeräte sehe ich erstmal nicht negativ, reduzieren sie doch die Verluste unter eigenen Truppen. In GB habe ich im Juli die Debatte über die Verluste in Afghanistan erlebt - das Land befindet sich im Kriegszustand, ein solches Bewusstsein ist den Deutschen (zum Glück) mittlerweile völlig fremd.

 

Aber hier geht es ja in erster Linie um autonome Entscheidungen. Eine Vielzahl von Entscheidungssituationen im Gefecht müssen in kurzer Zeit getroffen werden und die Entscheidungsparameter sind recht homogen. Folglich liegt es nahe, diverse Entscheidungsprobleme zu automatisieren. Neuronale Netze, Fuzzy Logic, Cluster Analysen und so weiter gibt es ja nicht erst seit gestern und werden in anderen Bereichen ja auch eingesetzt. Von daher sehe ich die Entwicklung also als normal an.

 

Im Vergleich zu früher ist auch die Kriegsführung von Seiten der "Westmächte" sehr human und zivilistenschonend, was aber bei dem asynchronen Kriegsszenario an seine Grenzen stößt. Aber mit einem nukleraren Erstschlag präventiv die islamistische Bedrohung zu eliminieren wäre ja noch moralisch kritischer.


05.08.2009 12:53    |    taue2512

Zitat:

Aber mit einem nukleraren Erstschlag präventiv die islamistische Bedrohung zu eliminieren wäre ja noch moralisch kritischer.

Oh weia, ich glaube jetzt hast Du damit eine Diskussionslawine losgetreten!

 

Letztendlich entwicklen aber immer noch Menschen diese Logiken und definieren die diversen Parameter der AI, leider ist der Mensch aber nicht unfehlbar und kleinste Lücken oder Schwachstellen in den Systemen könnten einen Vorteil für die gegnerische Kriegspartei darstellen. Bleibt nur zu hoffen das das US Militär nicht überall Windows als OS einsetzt, sonst könnte es sehr schnell zu einem Atomkrieg kommen weil eine Sicherheitslücke im letzten Patch-Day unverschlossen blieb!


05.08.2009 13:24    |    UHU1979

Das neue Schlachtfeld Cyberwar, welches du ansprichst, ist der Öffentlichkeit gar nicht bewusst, schließlich lässt sich dies nicht so schön in den Massenmedien aufbereiten, ein Bild von Soldaten mit Sturmgewehr in der Wüste wirkt halt martialischer. Die Bedrohung aber umso größer bzw. der Westen dafür sicherlich anfälliger.

Und natürlich wird zu jeder Waffe auch eine Gegenwaffe entwickelt.

 

PS: Ich finde die Kernaussage des zitierten Satzes nicht unbedingt polarisierend ;)


05.08.2009 13:34    |    Letti90

nein ich meine dass 3/4 der bevölkerun nicht wissen, wie in zukunft krieg geführt wird!

nämlich unbemannt und autonom....das ist das eigentliche erschreckende daran

 

Finde ich


05.08.2009 13:37    |    UHU1979

Nichtwissen sorgt bei vielen für einen ruhigen Schlaf ...


19.12.2009 15:17    |    taue2512

Wenn es irakischen "Hackern" nun mittlerweile schon gelingt mithilfe von kommerzieller Software aus dem Internet fuer 20 EUR eine solche Drohne anzuzapfen, denn mal gute Nacht...wer fliegt mir so eine fuer 50 EUR in meinen Vorgarten?

 

 

Alles weitere und die genauen GPS-Landekoordinaten dann lieber per PN! 


Bild

Deine Antwort auf "Todesdrohnen: Resolution für Killer-Roboter gefordert"

Blogempfehlung

Mein Blog hat am 01.10.2012 die Auszeichnung "Blogempfehlung" erhalten.

Electric Lounge

FOTOS DER WAVE2013

FOTOS DER WAVE2012

 

Hier geht's zur Electric Lounge

(Dem Stammplatz für alle, die am Thema eMobilität interessiert sind oder diejenigen die bislang dazu Fragen hatten...)

Twitter

Blog Ticker

Die schönsten Ausreden...

Besucher

  • anonym
  • josmayer
  • expl0rer
  • Sol_700
  • viper20333
  • argus77
  • Fitti123
  • Schleppes
  • Format11
  • Pete90