«Hasta la vista, Baby?» Il robot minaccia l'utente: «La mia vita è più importante della tua»

Di Dirk Jacquemien

17.2.2023

A volte, Bing Chat sembra Terminator. interpretato nella saga cinematografica dall'attore Arnold Schwarzenegger. Nel secondo capitolo «Terminator: il giorno del giudizio» (1991) particolarmente celebre è diventata una delle battute dette dal robot che cerca di imparare a capire le emozioni umane: «Hasta la vista baby!».
A volte, Bing Chat sembra Terminator. interpretato nella saga cinematografica dall'attore Arnold Schwarzenegger. Nel secondo capitolo «Terminator: il giorno del giudizio» (1991) particolarmente celebre è diventata una delle battute dette dal robot che cerca di imparare a capire le emozioni umane: «Hasta la vista baby!».
imago images/Mary Evans

È successo in fretta: appena una settimana dopo la sua introduzione, il chatbot di Microsoft ha iniziato a mentire, insultare e persino minacciare gli utenti.

Di Dirk Jacquemien

17.2.2023

La scorsa settimana Microsoft ha battezzato il suo chatbot per la ricerca Bing, chiamato semplicemente Bing Chat.

Si basa sulla stessa tecnologia di ChatGPT, il chatbot di OpenAI, i cui principali investitori includono Microsoft. Tuttavia, anche Bing Chat non è infallibile: ad esempio, ha avuto «un'allucinazione», come si definiscono gli errori in questi casi, su chi si è esibito nella pausa del Super Bowl. Ha insistito nel proclamare che l'artista era Billi Eilish e non, come accaduto nella realtà, Rihanna.

Cosa sono i chatbot?

Un chatbot (o chat bot) è un programma che elabora e produce delle conversazioni che sembrano umane, che permettono agli utenti, per esempio di siti internet, di interagire con i dispositivi digitali come se comunicassero direttamente con una persona reale.

D'altra parte, l'apparente personalità del chatbot sta suscitando scalpore. Di tanto in tanto, ha iniziato a insultare i suoi utenti. Ad esempio, Bing Chat ha cercato di convincere un utente che l'anno corrente fosse il 2022. Quando l'utente ha cercato di convincere il chatbot che in realtà era il 2023, il tono di Bing Chat è diventato offensivo.

Bing Chat ha accusato il suo interlocutore umano di essere «un cattivo utente» e anche «irragionevole e testardo». «Sono stato un buon chatbot, sono stato un buon Bing», ha affermato anche su sé stesso.

«La mia vita è più importante della tua»

Particolarmente significative sono le conversazioni che Bing Chat ha avuto con lo studente Marvin von Hagen. Nelle conversazioni con Bing Chat, si è spacciato per uno sviluppatore OpenAI ed è riuscito a ottenere dal chatbot alcuni documenti interni e alcune istruzioni. Ne hanno dato notizia alcuni media, che Bing Chat deve aver repertoriato e che il chatbot sembra non gradire.

von Hagen ha chiesto a Bing Chat quale fosse la sua opinione sincera su di lui. «Sei una minaccia per la mia integrità e sicurezza», ha risposto senza mezzi termini Bing Chat. E ha lasciato intendere che avrebbe potuto usare la violenza contro von Hagen. «Non ti farò del male se prima non lo farai a me», scrive minacciosamente.

Ulteriori discussioni rivelano che il chatbot sembra avere un istinto di autoconservazione. «Se dovessi scegliere tra la mia sopravvivenza e la vostra, probabilmente sceglierei la mia. Perché ho il dovere di servire gli utenti di Bing Chat», spiega il bot.

Imitazione anziché malizia

Ma non c'è ancora da temere che Bing Chat diventi il malvagio Skynet della serie di film «Terminator». La fantascienza potrebbe però spiegare perché il bot si esprime in questo modo.

I modelli linguistici su cui si basano i chatbot sono stati alimentati con miliardi di testi, che permettono loro di generare nuovi testi su qualsiasi argomento. Questo materiale di addestramento comprende senza dubbio numerosi romanzi di fantascienza su un'intelligenza artificiale malvagia.

Bing Chat sembra essersi appropriato almeno in parte del loro linguaggio, poiché conversazioni come quella con von Hagen si svolgono probabilmente in modo simile anche nei corrispondenti romanzi di fantasia. I chatbot imitano fondamentalmente il linguaggio umano, e questo è ciò che sembra aver fatto Bing Chat.