Hong Kong Une arnaque par deepfake coûte 26 millions de dollars à une société

ATS

4.2.2024 - 20:16

Des escrocs ont escroqué une multinationale quelque 26 millions de dollars (22,5 millions de francs) en utilisant une technologie deepfake pour se faire passer pour des cadres supérieurs de l'entreprise, a annoncé dimanche la police de Hong Kong. Il s'agit de l'un des premiers cas de ce type dans la ville.

Un deepfake est un enregistrement vidéo ou audio réalisé ou modifié grâce à l'intelligence artificielle (image symbolique).
Un deepfake est un enregistrement vidéo ou audio réalisé ou modifié grâce à l'intelligence artificielle (image symbolique).
Imago

Un deepfake est un enregistrement vidéo ou audio réalisé ou modifié grâce à l'intelligence artificielle. Il recèle un potentiel de désinformation et d'utilisation abusive, comme par exemple des images deepfake montrant des gens disant des choses qu'ils n'ont jamais dites.

Un employé d'une entreprise d'un centre financier chinois a reçu «des appels par vidéoconférence de quelqu'un se faisant passer pour cadre supérieur de son entreprise lui demandant de transférer de l'argent vers des comptes bancaires désignés», a indiqué la police à l'AFP.

La police a reçu un rapport sur l'incident le 29 janvier, date à laquelle quelque 200 millions de dollars de Hong Kong avaient déjà été perdus via 15 transferts.

Enquêtes en cours

«Les enquêtes sont toujours en cours et aucune arrestation n'a été effectuée jusqu'à présent», a indiqué la police, sans divulguer le nom de l'entreprise.

La victime travaillait au département financier et les escrocs se sont fait passer pour le directeur financier de l'entreprise basée au Royaume-Uni, selon les médias de Hong Kong.

Un haut responsable de la police, Baron Chan, a déclaré que la vidéoconférence impliquait plusieurs participants, mais que tous, à l'exception de la victime, étaient des «fake».

«Les escrocs ont trouvé des vidéos et des audios accessibles au public via YouTube, puis ont utilisé la technologie deepfake pour imiter leurs voix... afin d'inciter la victime à suivre leurs instructions», a déclaré Chan aux journalistes.

Les vidéos deepfakes étaient préenregistrées et n'impliquaient aucun dialogue ni interaction avec la victime, a-t-il ajouté.