Il CEO si difende Gli utenti abbandonano ChatGPT in massa, ecco cosa c'è dietro

Martin Abgottspon

5.3.2026

Sam Altman, CEO di OpenAI, cerca di limitare i danni.
Sam Altman, CEO di OpenAI, cerca di limitare i danni.
Imago

Un contratto con il Dipartimento della Difesa statunitense sta mettendo OpenAI in difficoltà. Mentre molti utenti cancellano i loro abbonamenti a ChatGPT, a beneficiarne è soprattutto il concorrente Anthropic.

Martin Abgottspon

Hai fretta? blue News riassume per te

  • Dopo la firma di un contratto tra OpenAI e il Dipartimento della Difesa degli Stati Uniti per l’uso dell’IA , molti utenti hanno reagito disinstallando ChatGPT.
  • Allo stesso tempo il concorrente Anthropic, che avrebbe rifiutato condizioni simili legate ad applicazioni militari dell’IA, ha registrato un forte aumento dei download della sua app Claude.
  • Il CEO di OpenAI Sam Altman ha difeso la scelta, promettendo limiti più chiari sull’uso della tecnologia.

La disputa sull’uso militare dell’intelligenza artificiale sta iniziando ad avere effetti concreti sulla base di utenti di uno dei principali fornitori di IA.

Poco dopo che, alla fine di febbraio, OpenAI ha firmato un contratto con il Dipartimento della Difesa degli Stati Uniti, numerosi utenti hanno reagito prendendo le distanze dalla piattaforma.

Secondo i dati della società di analisi Sensor Tower, subito dopo la diffusione della notizia dell’accordo il numero di disinstallazioni dell’app ChatGPT è quadruplicato.

Parallelamente, il concorrente Anthropic ha registrato un forte aumento della domanda. I download della sua app di IA Claude sono cresciuti del 51%, portando il programma in cima alle classifiche dell’App Store statunitense.

Un conflitto etico nel settore dell'IA

All’origine della vicenda c’è un conflitto di fondo sul ruolo dell’intelligenza artificiale in ambito militare. Mentre OpenAI ha firmato il contratto con il Pentagono, Anthropic aveva in precedenza rifiutato di allentare le proprie regole interne di sicurezza per consentire una simile collaborazione.

Secondo fonti del settore, il Dipartimento della Difesa statunitense avrebbe chiesto possibilità di utilizzo più ampie per i sistemi di IA, tra cui applicazioni nel campo della sorveglianza di massa e potenzialmente anche per sistemi d’arma autonomi. Anthropic avrebbe respinto queste condizioni.

La scelta potrebbe avere conseguenze. Sebbene la tecnologia di Anthropic fosse già stata integrata nei sistemi del Pentagono nel 2025, l’azienda rischia ora di essere esclusa da futuri processi di approvvigionamento in ambito di sicurezza.

L'azienda Anthropic, con l'amministratore delegato Dario Amodei, è in concorrenza, tra gli altri, con lo sviluppatore di ChatGPT OpenAI. (immagine d'archivio)
L'azienda Anthropic, con l'amministratore delegato Dario Amodei, è in concorrenza, tra gli altri, con lo sviluppatore di ChatGPT OpenAI. (immagine d'archivio)
sda

Sam Altman in modalità difesa

Il CEO di OpenAI, Sam Altman, ha reagito pubblicamente alle critiche pubblicando sulla piattaforma X un memo interno. Nel documento ammette che la firma dell’accordo con il Pentagono possa apparire all’esterno «opportunistica e mal gestita».

All’interno dell’azienda, tuttavia, la decisione sarebbe stata motivata in modo diverso. OpenAI avrebbe cercato di evitare un contratto ritenuto ancora più problematico per l’azienda, mantenendo al tempo stesso una certa influenza sulle condizioni di utilizzo della tecnologia.

Altman ha inoltre sottolineato che OpenAI condivide «linee rosse» simili a quelle di Anthropic. La tecnologia, ha spiegato, non è ancora sufficientemente matura per molte applicazioni e, in diversi ambiti, le implicazioni di sicurezza non sono ancora state pienamente comprese.

In risposta alle critiche, il CEO ha annunciato l’intenzione di precisare a posteriori i termini dell’accordo con il Pentagono. Sono previste clausole aggiuntive per escludere determinati utilizzi della tecnologia OpenAI.

Secondo le intenzioni attuali dell’azienda, ChatGPT non dovrebbe essere utilizzato dalla National Security Agency né per la sorveglianza dei cittadini americani. Anche sul tema delle armi autonome si vogliono fissare limiti più severi. Resta però da vedere se il Dipartimento della Difesa accetterà tali restrizioni.

Questione di fiducia per l'industria dell'IA

Le reazioni sui social network mostrano quanto l’opinione pubblica sia ormai sensibile ai progetti militari legati all’intelligenza artificiale.

Sotto il messaggio di Altman sono comparsi numerosi commenti critici. Alcuni utenti accusano OpenAI di sacrificare principi etici a favore di interessi politici.

Il caso solleva così una questione strategica per l’intero settore. Mentre i governi di tutto il mondo ricorrono sempre più ai sistemi di IA per scopi di sicurezza e difesa, le aziende devono decidere quanto strettamente vogliono legarsi alle strutture del potere statale.

L’attuale fuga di utenti suggerisce che queste scelte potrebbero avere conseguenze non solo sul piano normativo o geopolitico, ma anche sulla fiducia degli stessi utilizzatori.