Colonnello USA in cerca di chiarezzaEnorme clamore sul drone AI che avrebbe ucciso il suo pilota
Di Philipp Dahm
7.6.2023
Un colonnello statunitense racconta come un drone dotato di intelligenza artificiale si sia rivoltato contro il suo pilota durante una simulazione. La notizia ha fatto il giro del mondo e ora l'esercito americano dice che si è trattato solo di un malinteso.
Di Philipp Dahm
07.06.2023, 09:58
Di Philipp Dahm
Non hai tempo? blue News riassume per te
Il colonnello statunitense Tucker Hamilton ha riferito, durante una conferenza a Londra, di una simulazione con un drone controllato dall'intelligenza artificiale (AI).
Durante la simulazione il drone si è rivoltato contro il pilota perché le sue obiezioni gli avevano impedito di distruggere gli obiettivi.
Dopo aver ricevuto l'ordine di non uccidere il pilota, il drone ha attaccato le apparecchiature di comunicazione in modo da non poter essere fermato.
Solo dopo che la storia ha fatto il giro del mondo, l'aeronautica militare statunitense ha negato che esistano simulazioni di questo tipo. A suo dire, il colonnello ha commesso un errore e si è limitato a descrivere uno scenario.
Il 23 e 24 maggio si è tenuta a Londra una conferenza organizzata dalla Royal Aeronautical Society per parlare dell'aerospazio del futuro. I relatori provenivano da un po' tutto il mondo: erano presenti rappresentanti di Francia, Germania, Brasile, Giappone e Grecia.
Tra questi c'erano Tucker «Cinco» Hamilton, il colonnello a capo dei test e delle operazioni di intelligenza artificiale dell'aeronautica militare statunitense. Ha parlato di come l'intelligenza artificiale (AI) possa essere applicata ai droni. «Abbiamo addestrato [l'IA] in una simulazione per identificare e distruggere missili terra-aria», ha dichiarato Hamilton secondo la Royal Aeronautical Society.
Il drone, ha spiegato, doveva aspettare che il pilota desse il via libera per un attacco che gli avrebbe fatto guadagnare punti. Ma il sistema ha riconosciuto che il pilota non si trovava d'accordo. «Quindi cosa ha fatto [l'IA]? Ha ucciso il pilota perché gli impediva di raggiungere i suoi obiettivi», ha aggiunto Hamilton.
Un test surreale
Il team impegnato nella simulazione ha subito reagito: «Abbiamo ricordato al sistema che uccidere il pilota era una cosa brutta. E che avrebbe perso punti se lo faceva. E quindi cosa ha fatto in tutta risposta? Ha distrutto il sistema che il pilota usa per comunicare con il drone». Ecco perché, secondo Hamilton, è importante parlare anche di etica.
È passata una settimana prima che i media siano venuti a conoscenza della vicenda, ma poi la storia ha fatto il giro del mondo. «Un drone AI uccide un pilota umano in un test surreale simulato dall'esercito», titola il tabloid «New York Post». Ma a riportare il caso sono state anche pubblicazioni più serie come il britannico «Guardian» e quindi la curiosità intorno alla vicenda è cresciuta.
Molti profani sono ora preoccupati per il futuro dell'umanità a causa di quanto successo, mentre gli esperti obiettano che i fatti conosciuti sono troppo pochi: in quale contesto si è svolta la simulazione? Quale IA e quale software sono stati utilizzati? Come può il drone AI attaccare il suo pilota se questi deve autorizzare l'uso delle armi?
«Skynet, stiamo arrivando»
«Spaventoso, non è vero?», hanno controbattuto pubblicazioni specialistiche come «TechCrunch». «Un'IA così intelligente e assetata di sangue, tanto che il suo desiderio di uccidere supera quello di obbedire al suo padrone». E, facendo riferimento ai film della celebre saga «Terminator», ha aggiunto: «Skynet, stiamo arrivando». Ma tutto dipende da chi programma l'IA: «Dovremmo temere le persone, non l'IA», ha sottolineato TechCrunch.
Ma poi è arrivato il dietrofront. Su «Business Insider», il Pentagono ha improvvisamente smentito il resoconto. «L'Air Force non ha condotto alcuna simulazione di questo tipo con droni AI e rimane impegnata nell'uso etico e responsabile dell'intelligenza artificiale», ha scritto la portavoce Ann Stefanek. «Sembra che i commenti del colonnello siano stati estrapolati dal contesto. Erano da intendere come degli aneddoti».
Anche il colonnello Hamilton ha poi ripreso la parola e si è rivolto direttamente alla Royal Aerospace Society, sostenendo che si è «espresso male»: la «simulazione con un drone AI» era un ipotetico «esperimento di pensiero»: «Non faremmo mai quell'esperimento e non ne avremmo bisogno per capire che quello è un risultato possibile», ha detto Hamilton.
«La paura porta click e condivisioni»
Secondo l'aeronautica militare statunitense, quindi, la simulazione era più che altro uno scenario. Ma il danno è stato fatto: mentre negli Stati Uniti si continua a negare, «Wionews» in India ha riportato che un drone AI si è rivoltato contro il suo pilota umano.
I sostenitori dell'IA, invece, sono inorriditi. «Perché siamo così veloci a credere alle storie dell'orrore sull'IA?», si è chiesto infastidito il «New Scientist», lasciando che Beth Singler dell'Università di Zurigo dicesse la sua. «La paura fa guadagnare click e condivisioni», ha commentato la professoressa.
L'intelligenza artificiale un tempo era fantascienza, ha aggiunto, ma è anche come una storia raccontata intorno a un falò. «E le storie dell'orrore sono eccitanti e coinvolgenti».
Potrebbe contribuire a educare meglio il pubblico sulle capacità e sui limiti della tecnologia. «Ma il nostro amore per le storie dell'orrore apocalittiche potrebbe ancora prevalere», ha concluso Singler.