Via d'uscita dalla solitudine Perché tante persone cercano l'amore con l'intelligenza artificiale?

Martin Abgottspon

8.11.2025

L'amore con l'intelligenza artificiale è davvero meno complicato di quello con gli esseri umani?
L'amore con l'intelligenza artificiale è davvero meno complicato di quello con gli esseri umani?
Gemini @blue News

Solo pochi anni fa, il termine «fidanzata IA» era un fenomeno marginale delle sottoculture digitali. Oggi è un fenomeno globale. Ma cosa c'è dietro il boom delle compagne virtuali e cosa le rende così socialmente controverse?

Martin Abgottspon

Hai fretta? blue News riassume per te

  • L'interesse globale per i partner d'intelligenza artificiale è aumentato in modo massiccio nell'ultimo anno.
  • Questa tendenza è guidata dal progresso tecnologico, dai bisogni emotivi e dalla ricerca di una vicinanza senza complicazioni.
  • Se da un lato i compagni IA offrono un supporto emotivo a molti, dall'altro c'è il rischio di sviluppare una dipendenza psicologica e di una mancanza di regolamentazione.

Replika, Candy.AI o GPTGirlfriend: i nomi di queste app sembrano espedienti, ma il loro effetto arriva in profondità nel tessuto emotivo delle società moderne.

Offrono partner virtuali sempre disponibili, non contrastati e, se lo si desidera, sessualmente espliciti. Milioni di utenti in tutto il mondo intrattengono con loro conversazioni che vanno dalla banale chiaccherata quotidiana a confessioni intime.

La studiosa di etica tecnologica britannica Kate Devlin, docente al King's College di Londra, vede in questo fenomeno non solo una rivoluzione tecnologica, ma soprattutto psicologica. «Le persone cercano una connessione, ma non necessariamente con altre persone», afferma in un'intervista a «Standart».

Tra necessità e commercio

Il boom non è una moda casuale, ma il risultato della maturità tecnologica e dello sviluppo sociale. Modelli linguistici come ChatGPT hanno superato una soglia in cui la comunicazione con l'IA non è più percepita come una simulazione, ma come un'esperienza reale.

Le applicazioni sono diverse. Dagli approcci terapeutici alla fuga dalla solitudine, tutto è incluso.

Allo stesso tempo, la ricercatrice mette in guardia dagli aspetti negativi di questa tendenza. Molti di questi sistemi sono orientati al commercio e deliberatamente programmati per rafforzare i legami emotivi.

Il rischio risiede nella commercializzazione strisciante dei sentimenti. «Questi sistemi possono essere sfruttati – afferma Devlin – soprattutto se simulano l'intimità senza avere la capacità di provare una vera empatia».

Relazioni 2.0: aiuto o evasione?

D'altra parte, Devlin respinge fermamente l'idea che i compagni di IA siano espressione di un fallimento sociale. Non è fondamentalmente un problema se le persone preferiscono parlare con un chatbot piuttosto che con altre persone.

Diventa critico solo quando questo diventa l'unico punto di riferimento sociale. Un punto che non è ancora stato osservato in modo generalizzato.

Al contrario, stanno emergendo nuove dinamiche sociali. Gli utenti raccontano le loro esperienze di IA nei forum, scambiano idee e formano comunità.

Anche i gruppi target stanno cambiando. Contrariamente ai luoghi comuni, anche le donne utilizzano sempre più spesso questi sistemi, come reazione alle esperienze tossiche nel mondo digitale.

L'illusione del partner perfetto appare spesso come un'alternativa meno rischiosa rispetto alla ricerca di un partner reale.

Di norma, gli avatar dell'intelligenza artificiale possono essere personalizzati in base alle preferenze personali.
Di norma, gli avatar dell'intelligenza artificiale possono essere personalizzati in base alle preferenze personali.
Candy.ai

Cosa rimane dell'essere umano?

Questo sviluppo solleva profonde questioni etiche. Un'IA può davvero essere una controparte? O alla fine rimane uno specchio delle nostre aspettative, privo di autentica vulnerabilità o rischio emotivo?

Devlin avanza un'argomentazione ricca di sfumature: sebbene i partner dell'IA possano fornire un conforto a breve termine o alleviare la solitudine, a lungo termine mancano di ciò che rende speciali le relazioni umane: ambivalenza, attrito, imprevedibilità.

Alcuni sviluppatori stanno già sperimentando personalità di IA «indisciplinate». Avatar che contraddicono, mostrano frustrazione o pongono limiti. Ciò che inizialmente sembra contraddittorio segue uno schema psicologico.

È proprio il presunto imperfetto che appare particolarmente reale e quindi desiderabile. La transizione tra simulazione digitale e realtà emotiva diventa quindi sempre più sfumata.

Regolazione anziché romanticizzazione

Per Devlin una cosa è chiara: per gestire le relazioni con l'IA servono regole. Non si tratta solo di sviluppo tecnico, ma anche di responsabilità sociale. I principi di progettazione devono seguire standard etici e la trasparenza deve essere garantita dalla legge.

Al momento però dominano gli interessi commerciali, con conseguenze discutibili per gli utenti. «Siamo alla mercé dei calcoli economici delle grandi aziende tecnologiche – afferma l'autrice – e l'equilibrio tra benefici e danni non è ancora giusto».

Il programma di finanziamento britannico «Responsible AI UK», in cui Devlin è coinvolta, sta cercando di risolvere proprio questo problema. Con linee guida pensate per armonizzare l'innovazione tecnologica con i valori sociali. Ma le dinamiche del mercato sono rapide e il discorso pubblico è in ritardo.

Quella che era nata come una tendenza innocente è diventata da tempo uno specchio di sconvolgimenti sociali. In un mondo in cui la vicinanza umana è spesso associata al rischio, alla frustrazione o al rifiuto, il rapporto perfetto e controllabile con la macchina sembra più allettante che mai.

La questione se siamo disposti a ridefinire la nostra concezione di intimità per questo non è più un problema. È già da tempo una realtà.