Intelligenza artificiale TA-Swiss: ecco i pericoli e le opportunità dei deepfake

ceel, ats

18.6.2024 - 10:33

I deepfake permettono di far pronunciare anche a personalità politiche di spicco qualsiasi genere di discorso. (Foto simbolica)
I deepfake permettono di far pronunciare anche a personalità politiche di spicco qualsiasi genere di discorso. (Foto simbolica)
Keystone

È sempre più difficile riconoscere contenuti generati dall'intelligenza artificiale (IA), i cosiddetti «deepfake»: lo dimostra uno studio pubblicato oggi dalla Fondazione per la valutazione delle scelte tecnologiche (TA-Swiss).

Keystone-SDA, ceel, ats

In un esperimento i partecipanti all'indagine non sono stati in grado di identificare in quanto tali i contenuti generati dall'IA, come nel caso di video e registrazioni audio.

Simili difficoltà sono state riscontrate anche dagli appositi programmi di rilevamento.

Sempre più spesso tale recente tecnologia viene utilizzata per scopi quali il ricatto e il bullismo. Alla luce del rapido sviluppo, scrive TA-Swiss in un comunicato, solo una combinazione di misure di protezione può limitare gli effetti dannosi dei deepfake.

Con questo termine si identificano i contenuti che, basandosi su immagini, registrazioni sonore e video reali, riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce.

Secondo TA-Swiss, le misure politiche, i rilevatori di deepfake e la sensibilizzazione del pubblico dovrebbero essere complementari.

Ad esempio, lo Stato dovrebbe imporre alle piattaforme online di cancellare i deepfake dannosi per le persone e dovrebbero essere istituiti centri di consulenza per le vittime.

Nonostante quanto detto, TA-Swiss vede anche delle opportunità in queste recenti applicazioni dell'IA, come nel caso del doppiaggio dei film.