Intelligenza artificialeTA-Swiss: ecco i pericoli e le opportunità dei deepfake
ceel, ats
18.6.2024 - 10:33
È sempre più difficile riconoscere contenuti generati dall'intelligenza artificiale (IA), i cosiddetti «deepfake»: lo dimostra uno studio pubblicato oggi dalla Fondazione per la valutazione delle scelte tecnologiche (TA-Swiss).
Keystone-SDA, ceel, ats
18.06.2024, 10:33
18.06.2024, 10:55
SDA
In un esperimento i partecipanti all'indagine non sono stati in grado di identificare in quanto tali i contenuti generati dall'IA, come nel caso di video e registrazioni audio.
Simili difficoltà sono state riscontrate anche dagli appositi programmi di rilevamento.
Sempre più spesso tale recente tecnologia viene utilizzata per scopi quali il ricatto e il bullismo. Alla luce del rapido sviluppo, scrive TA-Swiss in un comunicato, solo una combinazione di misure di protezione può limitare gli effetti dannosi dei deepfake.
Con questo termine si identificano i contenuti che, basandosi su immagini, registrazioni sonore e video reali, riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce.
Secondo TA-Swiss, le misure politiche, i rilevatori di deepfake e la sensibilizzazione del pubblico dovrebbero essere complementari.
Ad esempio, lo Stato dovrebbe imporre alle piattaforme online di cancellare i deepfake dannosi per le persone e dovrebbero essere istituiti centri di consulenza per le vittime.
Nonostante quanto detto, TA-Swiss vede anche delle opportunità in queste recenti applicazioni dell'IA, come nel caso del doppiaggio dei film.