La minaccia«La proliferazione dei robot assassini è iniziata»
Philipp Dahm
26.9.2021
Nuova era nella guerra: per la prima volta l'ONU ha documentato un attacco autonomo di droni da combattimento. I robot turchi sono stati utilizzati con «alta efficacia» in Libia.
Philipp Dahm
26.09.2021, 08:35
Philipp Dahm
È passato un buon decennio da quando la primavera araba ha spazzato il Nord Africa e il Medio Oriente. Oggi non rimane molto del vento fresco. Come un uragano, il movimento ha trasformato una potenza regionale come l'Egitto in una dittatura militare di vecchia scuola, ha frantumato la Siria e ha anche costretto la Libia in una brutale guerra civile per procura. Qualche prospettiva di miglioramento? Neanche per sogno.
È proprio uno di questi focolai di conflitto a essere diventato la scena di una novità militare che è anche una rottura di tabù: per la prima volta in Libia, i droni da combattimento turchi hanno attaccato autonomamente delle persone. Lo dice un rapporto delle Nazioni Unite (pdf in francese o in inglese) pubblicato qualche mese fa sul conflitto che sta devastando il paese da sette anni.
Sul terreno si fronteggiano il signore della guerra Chalifa Haftar con l'Esercito Nazionale Libico (LNA) e Fayiz as-Saraj, che è il primo ministro del governo di transizione. Quest'ultimo è riconosciuto da Stati Uniti, Unione Europea e ONU e sostenuto militarmente da Italia e Turchia. Haftar può invece contare sull'aiuto di Russia, Arabia Saudita, Egitto ed Emirati Arabi Uniti.
I droni turchi attaccano autonomamente
Il cambiamento d'epoca nella guerra dei droni è avvenuto già il 27 marzo 2020, dopo un'offensiva del governo provvisorio, secondo le Nazioni Unite. «I convogli di rifornimenti e [le forze di Haftar] in ritirata sono stati successivamente braccati e attaccati da lontano con veicoli aerei da combattimento senza equipaggio o sistemi d'arma autonomi letali come STM Kargu-2 e munizioni a incastro».
Secondo il rapporto, i robot killer di fabbricazione turca erano programmati per attaccare gli obiettivi anche se non c'era alcuna connessione con il pilota di controllo a terra. Hanno trovato e sparato sul nemico in modo indipendente, riferisce l'ONU. Questo non è mai successo prima in un conflitto militare.
Sebbene il rapporto non dia informazioni sulle vittime o i morti, parla di «alta efficacia» dei droni e di «perdite significative»: «Le truppe non sono addestrate né motivate a difendersi dall'uso efficace di questa nuova tecnologia e per lo più si disintegrano in modo disordinato», prima di essere poi affrontate e combattute con successo dalle macchine. I carri armati antiaerei Pantsir S-1 erano stati distrutti anche dall'aria, ha detto.
Punto di svolta
Max Tegmark è ben posizionato per capire il livello al quale questo incidente sta avvenendo. Nato in Svezia, è figlio di un matematico statunitense e ora insegna al Massachusetts Institute of Technology (MIT) sul tema dell'intelligenza artificiale. Il fisico 54enne scrive su Twitter cosa pensa dello sviluppo.
«La proliferazione dei robot assassini è iniziata», avverte lo scienziato. «Non è esattamente nell'interesse dell'umanità avere bot da macello a basso costo prodotti in massa e generosamente disponibili per chiunque abbia ancora un osso da spolpare con qualcuno. È ora che i leader mondiali si alzino e prendano posizione».
Killer robot proliferation has begun. It's not in humanity's best interest that cheap #slaughterbots are mass-produced and widely available to anyone with an axe to grind. It's high time for world leaders to step up and take a stand. https://t.co/ER3x41F5Vp
Human Rights Watch sta suonando lo stesso campanello d'allarme: l'organizzazione è co-iniziatrice della campagna per fermare i robot assassini. «Ci sono seri dubbi sul fatto che armi completamente autonome possano soddisfare gli standard internazionali dei diritti umani di distinzione, proporzionalità e necessità militare, mentre minacciano il diritto fondamentale alla vita e il principio della dignità umana», sostiene.
Trappole tecniche mortali
Oltre alle questioni fondamentali, ci sono ostacoli tecnici che rendono impossibile una «guerra pulita» con questi droni killer. Cosa succede se una delle macchine è danneggiata e l'algoritmo che assegna l'area di destinazione fallisce? Anche i sistemi di navigazione possono essere manipolati, come dimostrato da un test in cui il pilota automatico di una Tesla è stato guidato nel traffico reale da hacker nel 2019.
Tecnologie come il riconoscimento facciale, che probabilmente sarà applicato a tali droni, sono anche lontane dall'essere impeccabili. Mentre tale software è ancora in qualche modo affidabile per i bianchi, pone un serio problema per le persone di origine asiatica, per esempio. Inoltre, sono diventati pubblici i rapporti di distributori di sapone che non funzionano per le persone di colore o di auto a guida autonoma che non riconoscono i pedoni di colore.
Lezione Ted (in inglese) di Sam Harris «Possiamo costruire l'intelligenza artificiale senza perderne il controllo».
Youtube
Menti influenti nel campo hanno a lungo avvertito di un vaso di Pandora che l'umanità sta per aprire. Come il neuro scienziato e filosofo Sam Harris. O Elon Musk: da un lato, il fondatore di Tesla investe nell'intelligenza artificiale, ma dall'altro la considera più pericolosa delle armi nucleari: lui e 116 ricercatori si sono espressi a favore della messa al bando dei robot killer. (in inglese).
Solo l'inizio?
Nel 2018, le Nazioni Unite hanno cercato di avviare colloqui per mettere fuori legge tali armi, ma la Russia in particolare ha impedito che una tale convenzione fosse anche solo discussa. E non c'è nulla di nuovo nemmeno in questo senso: solo un mese fa, la Casa Bianca ha consigliato ai suoi alleati di resistere a tali misure (in inglese).
Eppure la tecnologia in questo ramo sta diventando sempre più economica e i droni da combattimento sono davvero una merce di massa ai giorni nostri, a tal punto che gli attori non statali ne stanno approfittando, come per esempio, i cartelli della droga in Sud America.
"The world needs to debate the growing threat of drone swarms. This debate shouldn’t wait until lethal drone swarms are used in war or in a terrorist attack but should happen now." - @ZKallenbornhttps://t.co/o1TNGepRBkpic.twitter.com/O7lpFa3Fnn
— Bulletin of the Atomic Scientists (@BulletinAtomic) June 1, 2021
In questo contesto, l'esperto americano di droni Zachary Kallenborn avverte anche di sciami di droni autonomi che potrebbero essere trasformati in armi di distruzione di massa con armi biologiche o chimiche. Chiama l'azione in Libia «un nuovo capitolo delle armi autonome», in cui «saranno usate con intelligenza artificiale per colpire e uccidere gli esseri umani».
ICYMI: I argued at @WarInstitute that armed, fully autonomous drone swarms are potential weapons of mass destruction. Swarms are quite unlikely to hit Tsar Bomba levels of destruction, but may be comparable to chem, some bio, and low-scale nukes. https://t.co/ZLac5T05Hv
Dove potrebbe andare il viaggio è mostrato nella clip «Slaughterbots», un cortometraggio horror del 2019. Il film è un'opera di finzione, ma in qualche modo sembra una possibile realtà di domani, che non si vuole davvero immaginare.