Nuova funzione sotto la lenteDeepfake e revenge porn: il social «X» sotto pressione dei Governi
fon
13.1.2026
Su «X» è stata lanciata una funzione IA che consente di modificare immagini di qualsiasi utente, favorendo la circolazione di contenuti illegali e senza consenso.
Imago
Una nuova funzione di intelligenza artificiale introdotta su «X» ha scatenato uno scandalo internazionale, con la diffusione di deepfake, revenge porn e immagini illegali che hanno spinto governi e autorità a intervenire.
Su «X» è stata lanciata una funzione IA che consente di modificare immagini di qualsiasi utente, favorendo la circolazione di contenuti illegali e senza consenso.
India, Indonesia ed Europa hanno reagito con richieste formali e pressioni regolatorie, mentre negli Stati Uniti il «TAKE IT DOWN Act» resta di fatto inapplicato.
La risposta dell'azienda di Elon Musk è apparsa contraddittoria e il caso riaccende il dibattito sulla necessità di regole più stringenti sull’intelligenza artificiale.
L'uso incontrollato dell'intelligenza artificiale sui social torna a far discutere, e questa volta al centro delle polemiche c'è «X», la piattaforma di Elon Musk.
Alla fine dello scorso anno è stata infatti introdotta una funzione che consente agli utenti di modificare con l'IA le immagini pubblicate da qualsiasi account, aprendo la porta a una diffusione massiccia di contenuti illegali come deepfake, revenge porn e immagini pedopornografiche, come ricostruito dalla «RSI».
Il caso ha rapidamente generato proteste, in particolare da parte delle donne, e ha attirato l'attenzione di diversi Governi. India e Indonesia sono intervenute con toni duri, concedendo alla società 72 ore per chiarire la situazione e adottare contromisure.
Anche in Europa la pressione è aumentata: in Francia tre membri dell'esecutivo hanno chiesto l'applicazione del regolamento sui servizi digitali per obbligare la piattaforma a prevenire e limitare la circolazione di contenuti illeciti. Nel Regno Unito, l'autorità di vigilanza Ofcom ha ribadito alla «BBC» che la creazione di immagini di minori o di persone senza consenso rappresenta un reato a tutti gli effetti.
Negli Stati Uniti, invece, non si registrano per ora prese di posizione ufficiali. Eppure esiste già una base legislativa: il «TAKE IT DOWN Act», fortemente sostenuto dall'attuale amministrazione e promosso in particolare da Melania Trump, dovrebbe garantire agli utenti la rimozione dei contenuti che li riguardano entro 24 ore.
Una tutela che, al momento, non viene applicata. La legge prevede sanzioni molto pesanti, incluse pene detentive, non per gli utenti ma per i gestori delle piattaforme che permettono la diffusione di questi materiali.
La reazione di «X»
La risposta di «X» è stata contraddittoria. Grok, l'intelligenza artificiale integrata nel social, ha inizialmente ammesso di aver modificato involontariamente immagini di minori.
Poco dopo, però, il sistema è stato riprogrammato e l'ammissione di fatto ritirata, probabilmente per evitare conseguenze legali e azioni collettive.
Rappresentanti dell'azienda in Europa hanno parlato di errori iniziali, sostenendo che i problemi siano stati risolti e attribuendo la responsabilità agli utenti che fanno un uso illecito della funzione.
Un segnale concreto è stata la rimozione della sezione che raggruppava le immagini generate artificialmente, rendendole meno visibili nelle ricerche. Nonostante questo, molti contenuti creati senza consenso risultano ancora accessibili.
Il caso solleva interrogativi più ampi: la rapidità con cui centinaia di migliaia di utenti hanno sfruttato questa funzione per manipolare immagini di donne e minori mette in luce l'urgenza di regole più stringenti sull’uso dell’intelligenza artificiale e di strumenti di intervento immediati, sia per gli utenti sia per le autorità.
E rende evidente quanto, almeno oggi, condividere immagini di minori online comporti rischi difficilmente controllabili, anche quando avviene in buona fede.