US-Oberst in ErklärungsnotRiesenwirbel um KI-Drohne, die vermeintlich ihren Piloten tötet
Von Philipp Dahm
3.6.2023
Ein US-Oberst erzählt, wie sich eine Drohne mit Künstlicher Intelligenz in einer Simulation gegen ihren Piloten wendet. Der Bericht geht um die Welt – nun sagt das US-Militär, das sei alles bloss ein Missverständnis gewesen.
Von Philipp Dahm
03.06.2023, 09:44
03.06.2023, 12:06
Philipp Dahm
Keine Zeit? blue News fasst für dich zusammen
US-Oberst Tucker Hamilton berichtete auf einer Tagung in London von einer Simulation mit einer Drohne, die von Künstlicher Intelligenz (KI) gesteuert wird.
Dabei habe die Drohne sich gegen ihren Piloten gewendet, weil dessen Einsprüche sie gehindert hätten, Zielpunkte zu zerstören.
Nach der Vorgabe, die Drohne dürfe den Piloten nicht töten, habe diese die Kommunikationseinrichtungen angegriffen, damit sie nicht aufgehalten werden könne.
Erst nachdem die Geschichte durch die Welt ging, dementiert die US Air Force: Es gebe solche Simulationen nicht. Der Oberst habe sich versprochen und lediglich ein Szenario beschrieben.
Als die Royal Aeronautical Society am 23. und 24. Mai nach London bittet, soll dort über die Luft- und Raumfahrt der Zukunft gesprochen werden. Die Dozierenden reisen aus aller Welt an: Vertreter*innen aus Frankreich, Deutschland, Brasilien, Japan und Griechenland sind vor Ort.
Unter ihnen ist auch Tucker «Cinco» Hamilton, der Oberst ist Chief of AI Test and Operations bei der US Air Force. Er berichtet, wie Künstliche Intelligenz (KI) bei Drohnen eingesetzt werden kann. «Wir haben [die KI] in einer Simulation darauf trainiert, Boden-Luft-Raketen zu identifizieren und zu zerstören», zitiert die Royal Aeronautical Society Hamilton.
Die Drohne habe jedoch abwarten müssen, bis der Pilot grünes Licht für einen Angriff gebe, der der Drohne Punkte bringe. Dann habe das System erkannt, dass der Pilot aber nicht immer zustimmt. «Was hat [die KI] also getan? Sie hat den Piloten getötet, weil die Person sie davon abhielt, ihre Ziele zu erreichen», berichtet Hamilton.
Surrealer Test
Das Team reagiert: «Wir haben dem System beigebracht: ‹Hey, töte den Piloten nicht, das ist schlecht. Du verlierst Punkte, wenn du das machst.› Was macht es nun? Es beginnt, die Einrichtung zu zerstören, die der Pilot nutzt, um mit der Drohne zu kommunizieren, sie solle aufhören, das Ziel zu zerstören.» Deshalb sei es wichtig, auch über Ethik zu sprechen, schliesst Hamilton.
Eine Woche vergeht, bevor die Medien Wind von der Sache bekommen – doch dann geht die Geschichte um die Welt. «KI-Drohne tötet menschlichen Piloten in einem surrealen, vom Militär simulierten Test», titelt etwa das Boulevardblatt «New York Post». Aber auch seriösere Publikation wie der britische «Guardian» berichten über den Fall, die Aufregung wächst.
A simulated AI drone killed its operator (in the simulation) and destroyed the communication tower the operator was using to communicate with it after the AI determined that its operator was “keeping it from accomplishing its objective” pic.twitter.com/u9cRkSuDug
So mancher Laie sorgt sich wegen des Berichts um die Zukunft der Menschheit, während Fachleute einwenden, dass zu wenige Fakten bekannt seien: In welchem Rahmen hat die Simulation stattgefunden? Welche KI und welche Software wurden benutzt? Wie konnte die KI-Drohne ihren Piloten angreifen, wenn der den Waffeneinsatz doch genehmigen muss?
«Skynet, wir kommen»
«Angsteinflössend, nicht wahr?», kontern Fach-Publikationen wie «TechCrunch». «Eine KI, die so klug und blutrünstig ist, dass ihr Verlangen zu töten ihr Verlangen, ihrem Herren zu gehorchen, übersteigt.» Und mit Blick auf die «Terminator»-Filme folgt: «Skynet, wir kommen.» Dabei hänge alles von jenen ab, die die KI programmieren: «Wir sollten die Leute fürchten, nicht die KI», schreibt «TechCrunch».
Doch dann die Kehrtwende: In «Business-Insider» widerspricht das Pentagon plötzlich der Darstellung. «Die Air Force hat keine solchen Simulationen mit KI-Drohnen durchgeführt und bleibt der ethischen und verantwortungsbewussten Nutzung der KI-Technologie verpflichtet», schreibt Sprecherin Ann Stefanek. «Es scheint, als seien die Bemerkungen des Obersts aus dem Kontext gerissen worden. Sie waren anekdotisch gemeint.»
Oberst Hamilton meldet sich ebenfalls zu Wort – und wendet sich auch direkt an die Royal Aerospace Society. Er habe sich «versprochen»: Die «Simulation mit einer KI-Drohne» sei ein hypothetisches «Gedanken-Experiment» gewesen: «Wir würden niemals diese Experiment durchführen und wir bräuchten es auch nicht, um zu erkennen, dass das ein mögliches Ergebnis wäre», so Hamilton.
«Angst sorgt für Klicks und Shares»
Die Simulation soll also eher ein Szenario gewesen sei, so die US Air Force. Doch der Schaden ist schon angerichtet: Während in den USA dementiert wird, berichtet «Wionews» in Indien trotzdem, eine KI-Drohne habe sich gegen seinen menschlichen Steuermann gewendet.
The danger of #AI around the world as autonomous weapons raise concern
In the latest incident, a US AI drone turns against its human operator@SusanmTehrani tells you more
Verfechter der KI sind dagegen entsetzt. «Warum glauben wir KI-Horrorstorys so schnell?», fragt der «New Scientist» genervt und lässt Beth Singler von der Universität Zürich zu Wort kommen. «Angst sorgt für Klicks und Shares», sagt die Assistenzprofessorin. KI sei einst Science Fiction gewesen, doch sie sei auch wie eine Geschichte, die man sich am Lagerfeuer erzähle. «Und Horrorstorys sind aufregend und einnehmend.»
The first hint should have been that the AI powered drone had an "operator"
Es könnte helfen, die Öffentlichkeit besser über die Fähigkeiten und Grenzen der Technik aufzuklären. «Aber unsere Liebe zu apokalyptischen Horrostorys könnte sich trotzdem durchsetzen», so Singler.