Ecco perché Il teologo: «L'IA rischia di diventare una religione. C'è il rischio che la democrazia venga uccisa. Servono regole etiche»

hm, ats

9.2.2024 - 14:00

Serve un atteggiamento tecno-critico in uno spirito di responsabilità verso il bene comune, sostiene il teologo.
Serve un atteggiamento tecno-critico in uno spirito di responsabilità verso il bene comune, sostiene il teologo.
Keystone

L'intelligenza artificiale ha potere solo imitativo, eppure rischia di diventare una religione, a cui già oggi sono asserviti migliaia di africani che per due dollari l'ora smistano i dati a mano.

Keystone-SDA, hm, ats

La messa in guardia arriva dal teologo Ezekiel Kwetchi Takam, che insiste sull'urgenza di introdurre regole etiche per far fronte al nuovo fenomeno.

Innanzitutto parlare di intelligenza artificiale è «improprio», afferma il dottorando all'Università di Ginevra in un'intervista pubblicata oggi dal portale cattolico di notizie Kath.ch.

Si tratta di «strumenti tecnologici che fanno parte di un contesto sociale ed economico che tendono sempre a riprodurre», aggiunge. «Questa imitazione è solo frammentaria: l'intelligenza artificiale è in grado di riprodurre solo una minima parte dell'intelligenza umana. Il termine tecnico corretto sarebbe sistemi algoritmici».

«Il sorriso di un robot è solo imitazione»

«L'IA può essere solo imitativa e riproduttiva: non è nel regno della verità», argomenta lo specialista che ha fatto parlare di sé anche per le sue ricerche sulla robo-sessualità, l'uso di sextoy e sexbot.

«L'uomo comunica attraverso il suo corpo. L'IA ovviamente non ha un corpo, il che è molto diverso. Imparare da una macchina non ha nulla a che vedere con l'apprendimento che abbiamo dal nostro corpo e dalle nostre relazioni sociali. I gesti o il sorriso di un robot umanoide non saranno altro che imitazioni, anche se ricordano il sentimento di compassione».

La redenzione è ancora possibile?

Altro aspetto importante è quello del perdono e della redenzione. «Internet, e in particolare l'IA, non dimenticano nulla. Il minimo fatto, anche molto vecchio e privato, può essere immediatamente riportato in superficie per danneggiarvi. Eppure il diritto all'oblio è essenziale per la vita sociale.

La redenzione è ancora possibile nell'era dei social network? Alcuni politici hanno visto la loro carriera distrutta per azioni o dichiarazioni fatte decenni or sono, quando erano giovani, ingenui o spensierati. È una questione reale».

Cosa è il «dataismo»? Quali sono i suoi rischi?

L'esperto prende posizione anche sul cosiddetto dataismo, l'approccio di natura religiosa per cui il flusso di informazioni creato dal Big Data è considerato il valore supremo.

«Il concetto di dataismo è stato introdotto dal giornalista americano David Brooks nel 2013. Egli sottolinea che fin dalla sua nascita l'umanità è stata spiegata in termini di informazioni e quindi di dati.

Secondo Brooks, questi dati possono essere utilizzati per comprendere il passato e il presente, nonché per anticipare il futuro. Questi dati ci definiscono come esseri sociali, politici ed economici.».

«Questo concetto è molto interessante, perché coglie una realtà cruciale per la definizione dell'essere umano. Non è solo la biologia o la dimensione spirituale a caratterizzarci, ma anche le informazioni che ci permettono di collocarci nello spazio-tempo».

Il rischio è però quello di farne una religione. «Possiamo tracciare un'analogia con gli autoproclamati profeti di alcune chiese evangeliche che sostengono di essere in grado di prevedere le nostre vite. Oggi, grazie alla padronanza di un'enorme quantità di dati, altri profeti possono sfruttarli per determinare il nostro futuro. Questo non è più il risultato di una rivelazione trascendente, ma dello sfruttamento dei dati».

Ci vogliono delle regole, ecco quali

«C'è una riduzione dell'essere umano che il filosofo Marc Augé ha denunciato come sovramodernità», prosegue l'accademico.

«L'essere umano è ridotto a un insieme di numeri, a un codice. Siamo osservati e decifrati. Le nostre azioni, i nostri gesti, i nostri comportamenti, le nostre reazioni e le nostre emozioni sono analizzati in tempo reale da algoritmi che determinano le decisioni e le azioni da intraprendere».

Secondo l'intervistato è quindi assolutamente urgente e necessario inquadrare l'IA nell'ambito di regole etiche, sulla base di cinque principi.

Il primo è quello della trasparenza: «i sistemi di oggi sono spesso opachi, scatole nere che producono risultati secondo meccanismi che non riusciamo a comprendere».

Il secondo è quello dell'inclusione: «al momento l'IA opera quasi esclusivamente su un modello basato su una visione occidentale del mondo, ma la posta in gioco è di fatto globale». Il terzo principio è quello della responsabilità: «il cittadino deve sapere chi è responsabile dell'IA».

Il quarto è quello dell'imparzialità: «dobbiamo evitare i pregiudizi cognitivi e culturali e dare voce a tutti, soprattutto ai gruppi emarginati, dobbiamo difendere la pluralità della conoscenza».

Il quinto è quello dell'affidabilità: «questo vale per i mezzi e le procedure tecniche, con sistemi di verifica e controllo, come quelli che abbiamo, ad esempio, per il commercio dei farmaci, è importante perché i giganti dell'informatica di oggi spesso dettano le loro leggi ai governi o tendono a porsi al di sopra della legislazione nazionale».

«C'è il rischio che la democrazia venga uccisa»

Le sfide etiche dell'IA hanno anche una dimensione geopolitica. «A Vladimir Putin è stata attribuita la dichiarazione: chi controlla l'IA controllerà il mondo. Questo tema ridefinirà le forze globali. Le tensioni tra Cina e Stati Uniti ne sono una buona dimostrazione. Si potrebbe dire che l'IA ha fagocitato la deterrenza atomica».

«C'è il rischio che la democrazia venga uccisa», insiste Kwetchi Takam. «La capacità di manipolazione dell'IA può influenzare le decisioni politiche. La società della sorveglianza è un altro dei pericoli.

«In Cina, il riconoscimento facciale viene utilizzato per rintracciare e punire le persone il cui comportamento sociale non è conforme. Negli Stati Uniti, persone di colore sono state arrestate ingiustamente perché il sistema di riconoscimento facciale non era stato addestrato per i volti di colore. In Francia sono stati avviati progetti pilota per far decidere all'intelligenza artificiale l'assegnazione di prestazioni sociali».

AI, un termine improprio

Le disuguaglianze economiche sono uno degli aspetti poco conosciuti dello sviluppo dell'IA.

«ChatGPT, per quanto incredibile possa sembrare, si basa anche sul lavoro di centinaia di migliaia di persone, ad esempio in Kenya o in Madagascar, che per due dollari all'ora smistano e convalidano i dati a mano, per conto di grandi aziende occidentali.»

«Anche per questo motivo parlare di intelligenza artificiale è un termine improprio, perché gli esseri umani vengono sacrificati in questo settore».

Ogni innovazione porta paura

Nel corso della storia umana, ogni grande innovazione è stata accompagnata da paura e fascino, ricorda l'assistente universitario, e prendere seriamente in conto i timori aiuta a ridurre gli effetti dannosi per aumentarne gli impatti positivi.

«Rivelare una ferita è il primo passo per curarla. Sarebbe del tutto sbagliato credere in un mito di continuo progresso tecnologico in grado di risolvere tutti i problemi».

A quale conclusione si arriva?

L'IA ha infatti sicuramente anche aspetti positivi. «Stiamo parlando della quarta rivoluzione industriale, che ridurrà ulteriormente la fatica e i compiti ripetitivi, migliorando la produttività. Ci sono stati anche grandi progressi nella medicina, nella ricerca scientifica e nelle comunicazioni».

La conclusione? «Sono un realista», risponde l'esperto fondatore dell'Osservatorio euro-africano dell'intelligenza artificiale.

«Sono consapevole del progresso e dell'innovazione, ma mantengo un atteggiamento tecno-critico in uno spirito di responsabilità verso il bene comune. Possiamo anche vedere nell'uso dell'IA la possibilità per l'uomo di aprirsi nuovi spazi per sviluppare e coltivare la propria umanità», conclude.