Une vidéo publiée sur les réseaux sociaux montre un soldat ukrainien désespéré faisant un panoramique avec sa caméra pour révéler des tranchées remplies de corps de soldats morts et blessés. Ces vidéos révèlent la réalité effrayante vécue par de nombreux Ukrainiens combattant les troupes russes sur les lignes de front, un élément clé de la guerre moderne.
PUBLICITÉ
PUBLICITÉ
Cependant, en réalité, ces images largement partagées sont générées par l’IA, comme l’a vérifié la société de détection médico-légale Sensity AI.
Les chercheurs de Sensity préviennent que les deepfakes sont utilisés pour manipuler l’opinion publique et saper la confiance dans l’armée, sur la base de vidéos authentiques de soldats ukrainiens documentant leur vie quotidienne sur le terrain.
Les clips sont conçus pour ressembler à des images authentiques haut de gamme. Par exemple, dans une autre vidéo diffusée sur les réseaux sociaux, on peut voir un soldat critiquer la direction militaire de l’armée ukrainienne.
“Je ne veux pas servir avec eux”, déclare le soldat dans la vidéo. “Et je n’en ai pas besoin non plus.”
Sensity a trouvé plus de 1 000 vidéos similaires réparties sur les réseaux sociaux, identifiant un ensemble de données de base de 60 vidéos manipulées par l’IA.
Ces vidéos incluent des visages générés par l’IA ainsi que des voix artificielles. Dans certains cas, des images authentiques sont combinées avec des éléments générés par l’IA, ce qui rend difficile la détection des incohérences.
De TikTok à la Pravda
Selon Sensity, ces vidéos suivent un modèle cohérent pour garantir qu’elles se propagent largement sur les réseaux sociaux, inondant les flux des utilisateurs.
Dans le lot analysé par Sensity, les vidéos sont généralement téléchargées sur des plateformes telles que TikTok ou Telegram à partir de comptes anonymes ou nouvellement créés.
Une fois qu’ils commencent à susciter de l’engagement – vues, likes et commentaires – ils sont republiés sur des plateformes comme X, Facebook, Instagram et YouTube. Sur ces plateformes, les algorithmes récompensent le contenu chargé d’émotion en le diffusant sur le fil du temps des utilisateurs.
Une fois que le récit circule sur les réseaux sociaux, Sensity rapporte que des blogueurs militaires pro-russes ou des sites médiatiques pro-Kremlin tels que le réseau Pravda reprennent le contenu.
Saper le moral
Bien que les vidéos soient différentes, elles véhiculent des récits similaires destinés à influencer la façon dont la guerre est perçue.
Cela inclut de montrer des soldats désespérés par la situation sur le front, des affirmations selon lesquelles le leadership militaire ukrainien est inadéquat ou absent, ainsi que des accusations de mauvaise gestion au sein de l’armée ukrainienne.
Beaucoup de ces vidéos cherchent également à normaliser la reddition, montrant des soldats ukrainiens déclarant qu’abandonner leur poste est leur seule issue à la guerre.
Le but de ces vidéos est de saper la confiance dans les institutions et le commandement militaire ukrainiens, ainsi que d’affaiblir le moral, selon le fondateur de Sensity, Francesco Cavalli.
“Le véritable danger de ces vidéos sur des plateformes comme TikTok et Meta n’est pas simplement que certains utilisateurs puissent les croire ; c’est qu’elles peuvent façonner la perception à grande échelle, semer la confusion dans des événements qui évoluent rapidement et éroder progressivement la confiance dans ce que les gens voient”, a-t-il déclaré.
“La vieille peur était une fausse vidéo d’un président”, a-t-il ajouté. “La nouvelle réalité, ce sont des milliers de vidéos synthétiques destinées à un public plus restreint, où aucun clip n’a besoin de devenir viral pour être efficace.”
