Intelligenza artificiale Musk lancia l'allarme sull'IA: «Un rischio per l'umanità»

SDA

29.3.2023 - 22:21

Elon Musk
Elon Musk
KEYSTONE/AP/JAE C. HONG

L'intelligenza artificiale pone «profondi rischi per la società e l'umanità» e per questo servirebbe una «pausa» di almeno sei mesi nell'«addestramento» dei sistemi più avanzati. L'allarme è di Elon Musk e di altri 1.000 fra ricercatori e manager che, in una lettera aperta, chiedono uno stop o una moratoria dei governi per evitare il tanto temuto 'scenario Terminator' e consentire lo sviluppo di protocolli di sicurezza condivisi.

Hai fretta? blue News riassume per te:

  • Elon Musk e altri 1.000 fra ricercatori e manager temono «profondi rischi per la società e l'umanità» a causa dell'intelligenza artificiale (IA)
  • Per questo, attraverso una lettera aperta, chiedono una moratoria di almeno sei mesi nell'«addestramento» dei sistemi più avanzati.
  • Lo scopo è quello di consentire lo sviluppo di protocolli di sicurezza condivisi.

La missiva pubblicata dalla no profit Future of Life Institute vanta firme eccellenti e per questo viene presa molto seriamente. A sottoscriverla infatti ci sono il co-fondatore di Apple Steve Wozniak ma anche quelli di Pinterest e Skype, così come i fondatori delle start up di intelligenza artificiale Stability AI e Charatcters.ai.

Oltre ovviamente al miliardario visionario patron di Tesla che aspira a migliorare il cervello con Neuralink dopo aver, con la sua spinta all'innovazione, contribuito a trasformare radicalmente l'industria dello spazio con SpaceX e rivoluzionare quella dell'auto spianando la strada già più di un decennio fa alle vetture elettriche che si guidano da sole.

Fanatico della tecnologia, Musk ha investito in società di intelligenza artificiale ed era anche nel consiglio di amministrazione di OpenAI, il colosso del settore su cui Microsoft ha scommesso miliardi di dollari. Investimenti, ha spiegato più volte, non per guadagnare ma per tenersi al passo con i tempi e quindi conoscere queste tecnologie.

Nel mirino anche i sistemi più avanzati

Nel mirino dei big non c'è tutta l'intelligenza artificiale, ma i sistemi più avanzati di GPT-4, la chatbot di OpenAI capace di raccontare barzellette e superare facilmente esami come quello per diventare avvocato. «I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili», si legge nella lettera in cui si parla di una «corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare».

Una corsa che, se non sarà fermata, rischia di far divenire realtà la fantascientifica 'Skynet' protagonista dei film di James Cameron e la sua decisione di distruggere l'umanità; oppure, più prosaicamente, di far finire in mani sbagliate questi potenti sistemi con ricadute possibilmente devastanti.

Pechino – ha ad esempio avvertito il senatore Mike Gallagher a capo della commissione della camera sulla Cina – vede l'intelligenza artificiale come uno «strumento o un'arma per perfezionare la sua sorveglianza orwelliana tecno-totalitaria».

Timore di conseguenze catastrofiche

Proprio il timore di conseguenze catastrofiche ha spinto i grandi dell'hi-tech a chiedere una pausa di sei mesi da usare per lo «sviluppo congiunto e l'implementazione di protocolli condivisi» che assicurino la «sicurezza» dei sistemi «al di là di ogni ragionevole dubbio», prosegue la lettera, che invita i laboratori di IA a concentrarsi nel rendere più «accurati, trasparenti, credibili e leali» gli attuali sistemi invece di correre verso lo sviluppo di mezzi ancora più potenti.

«La società ha fatto una pausa su altre tecnologie con effetti potenzialmente catastrofici – prosegue la lettera -. Possiamo farlo anche in questo caso. Godiamoci una lunga estate dell'IA, e non corriamo impreparati verso l'autunno».