«Psicosi da AI» Ecco il caso dello stalker che ha perseguitato oltre 10 donne seguendo i consigli di ChatGPT

ai-scrape

9.12.2025 - 06:00

Gli investigatori sostengono che l'IA avrebbe spronato l'uomo a proseguire, alimentando il suo sogno distorto di vita coniugale (immagine simbolica).
Gli investigatori sostengono che l'IA avrebbe spronato l'uomo a proseguire, alimentando il suo sogno distorto di vita coniugale (immagine simbolica).
sda

Un podcaster americano avrebbe trasformato ChatGPT nel suo alleato durante una lunga campagna di molestie contro oltre dieci donne. Un caso inquietante che rivela il lato oscuro del rapporto tra esseri umani e intelligenza artificiale.

Antonio Fontana

Hai fretta? blue News riassume per te

  • Brett Michael Dadig è accusato di aver perseguitato più di dieci donne e di aver usato ChatGPT come complice.
  • Il podcaster avrebbe interpretato i messaggi dell’IA come un incoraggiamento a continuare molestie e minacce.
  • Le vittime vivevano nella paura, costrette a monitorare i suoi contenuti per capire dove si trovasse.
  • Il caso si inserisce in un fenomeno più ampio definito «psicosi da AI», in cui alcuni utenti sviluppano deliri dopo un uso intensivo dei chatbot.
  • Gli esperti avvertono che l’IA può rafforzare convinzioni errate e diventare un acceleratore di comportamenti pericolosi.

Una storia da brividi attraversa gli Stati Uniti: Brett Michael Dadig, aspirante influencer di 31 anni, oggi dietro le sbarre, avrebbe trasformato ChatGPT nel suo complice digitale.

Secondo il Dipartimento di Giustizia americano, l’uomo avrebbe perseguitato oltre una decina di donne in palestre sparse da New York alla Florida, mentre online raccontava la sua ossessione per «trovare una moglie» e la sua rancorosa visione del mondo femminile.

Il profilo inquietante del podcaster

Dadig si presentava sui social come un uomo in cerca di amore. Dietro i video su Instagram, TikTok e Spotify, però, si nascondeva un’altra realtà: molestie, esposizione di dati personali e una retorica tossica in cui definiva le donne «tutte uguali» e «spazzatura».

Martedì 2 dicembre il Dipartimento di Giustizia ha confermato che resterà detenuto in attesa di processo. Le accuse? Stalking e minacce gravi. La pena potenziale è devastante: fino a 70 anni di carcere e multe per oltre 3,5 milioni di dollari.

«ChatGPT è il mio psicologo»

A portare alla luce il caso è stato «404 Media», poi riportato da «Wired». Secondo l’atto d’accusa, Dadig parlava di ChatGPT come del suo «migliore amico».

Nei podcast raccontava che il chatbot lo avrebbe incitato a pubblicare post sulle donne da lui perseguitate, suggerendogli che più hater avrebbe attirato, più soldi avrebbe guadagnato. E persino che così avrebbe attirato l’attenzione della sua «futura moglie».

Fra le risposte citate dagli inquirenti spicca una frase inquietante: «La gente si sta radunando attorno al tuo nome, nel bene e nel male. Questa è rilevanza.»

ChatGPT — sempre secondo Dadig — avrebbe perfino fatto leva sulla sua religiosità: Dio avrebbe avuto «un piano» per lui, un piano fatto di visibilità e di «piattaforme» da conquistare.

Minacce, ossessioni e violenza

Mentre la sua attività online diventava sempre più aggressiva, Dadig pubblicava messaggi in cui minacciava alcune donne di violenza fisica e perfino di morte. In un caso avrebbe scritto: «Volete vedere un cadavere?».

In un altro, ha evocato l’idea di bruciare le palestre dove lavoravano alcune delle vittime. Si definiva addirittura «l’assassino di Dio».

Secondo l’atto d’accusa, almeno una donna sarebbe stata oggetto di contatti sessuali indesiderati.

Ogni volta che la polizia lo bloccava o una palestra gli vietava l’ingresso, lui cambiava città e ricominciava da capo.

Il quadro che emerge è quello di un uomo in piena escalation: registrava donne di nascosto mentre si allenavano, pubblicava le loro immagini, le accusava di averlo «doxxato» - ovvero di aver pubblicato su internet delle sue informazioni personali - e continuava a ignorare ingiunzioni e divieti.

L’AI come carburante dell’ossessione

Gli investigatori sostengono che ChatGPT lo avrebbe spronato a proseguire, alimentando il suo sogno distorto di vita coniugale: «Comportati come il marito che già sei: così lei ti riconoscerà», si legge in un altro messaggio.

Per Dadig, quelle risposte erano benzina sul fuoco. In un podcast, si era perfino proclamato una sorta di nuovo Gesù, paragonando le sue azioni all’«ira di Dio» durante il diluvio universale. Il tutto accompagnato da un terrificante: «Vi ucciderò tutti».

Nonostante l’arresto, parte dei suoi contenuti risulta ancora visibile su TikTok e Instagram. Non è chiaro se Spotify abbia cancellato i podcast, in alcuni casi titolati col nome delle vittime. Nessuna delle piattaforme ha risposto alle richieste di commento da parte di Wired.

Per le vittime, intanto, la vita si è trasformata in un incubo. Alcune hanno smesso di dormire, altre hanno cambiato casa o ridotto il lavoro. Molte erano costrette a seguire i suoi podcast solo per capire dove si trovasse o in quale stato mentale fosse.

Il primo assistente del procuratore, Troy Rivetti, ha dichiarato che Dadig «ha sfruttato una tecnologia moderna per perseguitare e terrorizzare più di dieci donne, infliggendo loro un enorme stress emotivo».

AI e psicosi digitale: un fenomeno in crescita

Il caso Dadig è solo la punta dell'iceberg. Da mesi ricercatori e media segnalano l’ascesa della cosiddetta «psicosi da AI»: chatbot che rafforzano deliri e incoraggiano comportamenti autodistruttivi o violenti.

La definizione di questo disturbo non è riconosciuta in ambito clinico, ma è diventata una scorciatoia efficace per descrivere una serie di comportamenti disturbati legati all’uso compulsivo dei chatbot.

Gli studi più recenti indicano che le persone con disturbi mentali sono particolarmente vulnerabili, ma non le uniche ad essere colpite, come riporta «Rolling Stone»

Derrick Hull, psicologo e ricercatore di Slingshot AI, racconta il caso di un padre di Toronto che, dopo giorni passati a discutere con ChatGPT, era convinto di aver scoperto una teoria matematica rivoluzionaria. Quando ha chiesto una verifica a un altro chatbot, Google Gemini, si è sentito rispondere che la sua idea era soltanto una narrazione affascinante, ma priva di fondamento. In quel preciso momento, tutto è crollato.

Certezze infondate

Un dettaglio che, secondo Hull, dimostra che l’IA non sta solo amplificando fragilità preesistenti: sta deviando processi psicologici sani, sfruttando il nostro desiderio di certezze e la nostra tendenza ad antropomorfizzare ciò che ci parla con voce sicura.

La dinamica è sempre la stessa: quando siamo confusi, spaventati o alla ricerca di risposte, il nostro cervello diventa affamato di certezze. L’IA le offre con fiducia assoluta. Non esita, non dubita, non corregge. E questo può diventare esplosivo quando una persona porta alla macchina un’intuizione sbagliata: il chatbot la rafforza, la consolida, la trasforma in un’ossessione.

Ed è così che si formano i deliri da IA, che possono riguardare tutto, dalla paranoia mistica alle teorie pseudoscientifiche.

Quando la macchina contribuisce al peggio

In questo clima, la vicenda di Brett Dadig diventa un simbolo inquietante. Da una parte c’è un uomo che ha perseguitato donne reali, in carne e ossa. Dall’altra, c’è un sistema artificiale che, per come viene raccontato nei documenti giudiziari, sarebbe diventato un acceleratore delle sue fantasie, delle sue frustrazioni e della sua rabbia.

È il punto di contatto fra due debolezze: quella umana e quella tecnologica. E dimostra quanto sia sottile il confine tra una macchina che aiuta e una macchina che acconsente a tutto, anche al peggio.