Dati sensibili Ecco perché è meglio non parlare a ChatGPT di alcune cose

Martin Abgottspon

30.4.2025

I chatbot come ChatGPT sono strumenti affascinanti, ma la loro mania di raccogliere dati comporta notevoli rischi. Questo perché la destinazione e l'utilizzo dei dati rimangono spesso oscuri. È quindi meglio tenere per sé i seguenti segreti.

Martin Abgottspon

Che si tratti di ricerca, creazione di testi o semplice curiosità, le intelligenze artificiali come ChatGPT sono diventate parte integrante della vita digitale quotidiana. Si è tentati di affidare all'assistente digitale qualsiasi cosa, dai dettagli privati ai segreti aziendali.

Ma attenzione: anche i sistemi apparentemente sicuri sono a rischio di fughe di dati e di uso improprio da parte di terzi non autorizzati. Per proteggere efficacemente voi stessi e le vostre informazioni, dovreste tenere per voi questi sei tipi di dati.

Nome, indirizzo, numero di telefono

La prima regola d'oro è quella di partire dal presupposto che non si sa dove finiscano i dati inseriti e come vengano elaborati. Anche se i fornitori garantiscono la riservatezza, esiste comunque il rischio di attacchi di hacker e fughe di dati.

Il vostro nome e cognome, l'indirizzo di casa o il numero di telefono non devono quindi comparire nella finestra di chat. Questo tipo di informazioni è oro per i criminali che potrebbero utilizzarle per attacchi di phishing o altre truffe.

Lo stesso vale per il caricamento di foto di documenti d'identità, passaporto o patente di guida: il periodo di conservazione e l'accesso a queste informazioni sono incerti.

Password, login e altri dati di accesso

Molti strumenti di intelligenza artificiale possono essere collegati ad altri servizi. Questo è comodo, ma aumenta il potenziale accesso dell'IA ai vostri dati. Sebbene le interfacce siano spesso sicure, non dovreste mai inviare i vostri dati di accesso specifici direttamente al chatbot.

Ci sono già stati incidenti in cui ChatGPT avrebbe inavvertitamente rivelato le password di altri utenti. Anche i numeri di conto o di cliente sono tabù.

In caso di fuga di dati, questi potrebbero finire nella darknet e aprire la porta ai criminali informatici per dirottare i vostri account e causare danni considerevoli.

Le password forti sono più importanti che mai nell'era dell'intelligenza artificiale.
Le password forti sono più importanti che mai nell'era dell'intelligenza artificiale.
Reddit

Dettagli sulla situazione finanziaria

Strettamente correlate alle credenziali di accesso sono le informazioni dettagliate sulle vostre finanze. Non sono solo i numeri di conto a essere rischiosi. Evitate assolutamente di caricare fatture, estratti conto o lettere della vostra banca.

Questi documenti contengono informazioni altamente riservate che riguardano solo voi. Tenete presente che un chatbot non dispone dei solidi meccanismi di sicurezza dell'online banking o delle app finanziarie specializzate.

Dati medici e informazioni sulle malattie

È molto allettante chiedere rapidamente un consiglio all'IA ai primi sintomi di malattia, invece di fissare un appuntamento con un medico. Ma attenzione: se descrivete dettagliatamente la vostra storia medica, date all'IA una visione estremamente profonda della vostra privacy.

Tali dati sanitari sono di esclusiva competenza dell'utente e del medico curante. Se volete comunque informazioni mediche, formulate la domanda nel modo più anonimo possibile, ad esempio in relazione a una persona fittizia con dati chiave simili.

In alcuni casi, rivolgersi al medico può essere la scelta migliore.
In alcuni casi, rivolgersi al medico può essere la scelta migliore.
Imago

Informazioni aziendali riservate

Gli assistenti come ChatGPT o Microsoft Copilot si stanno affermando sempre più anche nella vita professionale. Ma è facile dimenticare la quantità di dati a cui l'IA può potenzialmente accedere.

La situazione diventa particolarmente critica quando non si tratta solo di strutture interne, ma anche di dati sensibili dei clienti. Riassunti di riunioni riservate, rapporti finanziari o elenchi di clienti possono finire inavvertitamente nelle mani del fornitore di IA.

Le aziende dovrebbero quindi definire linee guida chiare prima di utilizzare tali strumenti e fornire ai propri dipendenti una formazione intensiva su come utilizzarli in modo responsabile.

Richieste di informazioni su attività illegali

A parte il fatto che le attività illegali dovrebbero essere sempre evitate, sollevare tali questioni con un'IA, anche per scherzo, può avere conseguenze inaspettate.

I gestori dei sistemi di IA spesso si riservano il diritto di inoltrare alle autorità di polizia le richieste sospette o chiaramente illegali.

Una domanda formulata con leggerezza sul modo migliore per nascondere un cadavere potrebbe, nel peggiore dei casi, portare la polizia a presentarsi alla porta poco tempo dopo.