À l’occasion de la 10e Journée internationale de vérification des faits, c’est le bon moment pour revoir comment identifier la désinformation générée par l’IA.
PUBLICITÉ
PUBLICITÉ
Ce type de contenu apparaît partout, depuis la guerre entre les États-Unis et l’Iran jusqu’à la période précédant les élections hongroises, et même sur certaines chaînes.
Une étude récente, publiée dans la revue PNAS Nexus, a demandé à 27 000 personnes de 27 pays de l’UE d’évaluer huit titres d’actualité générés par les humains et l’intelligence artificielle en fonction de leur degré de réalisme.
Près de la moitié des titres générés par l’IA étaient considérés comme « pour la plupart » ou « entièrement vrais », contre 44 % de ceux rédigés par des humains. Ils étaient également plus susceptibles de partager et de faire confiance à un reportage généré par l’IA plutôt qu’à un reportage écrit par des humains s’ils savaient qu’il s’agissait d’un véritable événement d’actualité.
Cependant, les personnes interrogées ont déclaré qu’elles étaient moins susceptibles de partager une nouvelle, écrite par un humain ou une IA, si elles savaient qu’elle était fausse.
Les résultats indiquent que les gens ne peuvent pas faire la distinction entre le contenu généré par l’homme et celui généré par l’IA, ont indiqué les chercheurs.
Voici quelques conseils sur la façon de procéder.
Recherchez des repères visuels
Les premières vidéos d’IA générées en ligne comportaient des indices évidents : des humains avec trop de doigts, des voix désynchronisées avec l’audio ou des objets déformés.
Il y a moins de signes comme celui-ci maintenant parce que la technologie a évolué, mais ils valent toujours la peine d’être recherchés.
Les utilisateurs peuvent remarquer des incohérences, comme une voiture apparaissant dans une vidéo à un moment donné et disparaissant le moment suivant.
Certaines images d’IA pourraient également être considérées comme trop soignées ou avoir un éclat peu naturel, selon le Global Investigative Journalism Network (GIJN).
GIJN recommande aux gens de se demander, lorsqu’ils regardent une image potentiellement générée par l’IA, si la personne a l’air trop raffinée, en particulier pour le contexte de l’image (c’est-à-dire, a-t-elle l’air prête pour un magazine même si elle se trouve dans une zone de conflit ?). Ils suggèrent également de regarder la qualité de la peau pour voir si elle manque de texture.
Faites vos recherches
Si une image ou une vidéo semble suspecte, il existe des moyens de vérifier si elle est authentique.
Une façon de procéder consiste à effectuer une recherche d’image inversée, dans laquelle un utilisateur prend une capture d’écran de la vidéo, la télécharge dans la barre de recherche Google et appuie sur l’icône de l’appareil photo indiquant « Rechercher une image ».
Une fois qu’un utilisateur télécharge l’image, Google fournira des correspondances visuelles pour la même photo et pourra être rapidement identifié lors de sa première publication.
Cela peut être fait dans d’autres moteurs de recherche ou avec des outils spécialisés comme TinEye.
Les utilisateurs pourraient également utiliser des solutions techniques pour suivre les filigranes ou les métadonnées d’un contenu afin de déterminer si les informations sont fiables ou non. selon à la Commission européenne.
Par exemple, les images générées avec Gemini AI de Google incluent un outil de filigrane numérique invisible appelé SynthID, que l’application peut détecter.
Écoutez les experts
Les utilisateurs peuvent également vérifier si les médias, les déclarations de personnalités publiques ou la publication sur les réseaux sociaux d’un expert en désinformation ont déjà démystifié l’image ou la vidéo qu’ils ont vue circuler.
Il existe des organisations de vérification des faits en Europe, telles que le Réseau européen de normes de vérification des faits (EFCSN), l’Observatoire européen des médias numériques (EDMO) et EUvsDisinfo, géré par le Service d’action extérieure de l’Union européenne (SEAE), qui publient des tendances, des enquêtes et des démystifications sur diverses formes de désinformation générée par l’IA.
Ces sources peuvent disposer de techniques plus avancées pour identifier le contenu généré par l’IA ou accéder à des informations sur l’image qui ne sont pas accessibles au grand public.
Les utilisateurs peuvent également vérifier si les informations qu’ils consultent font partie de la base de données des contrefaçons connues, une base de données de vérifications des faits effectuées par des journalistes professionnels, des chercheurs et des vérificateurs de faits.
Utiliser la technologie
Certains outils de détection de l’IA peuvent être utilisés, mais la précision de ces outils pour signaler le contenu de l’IA est un sujet de débat.
Certains des outils de détection de l’IA incluent : Winston AI, un outil qui détecte les images générées par l’IA ; TruthScan, qui fournit une première évaluation pour savoir si une image est une IA ; et Originality AI, qui détecte si le texte a été généré par l’IA.
D’autres outils de création d’IA ont ajouté des filigranes visibles au contenu qu’ils génèrent.
Ils sont souvent faciles à supprimer ou à recadrer, ce qui signifie que l’absence d’un tel filigrane ne constitue pas une preuve de l’authenticité d’une image.
Ralentir
Arrêtez-vous, respirez et ne partagez pas immédiatement quelque chose qui n’est pas réel.
Les mauvais acteurs comptent souvent sur le fait que les gens laissent leurs émotions et leurs points de vue existants guider leurs réactions au contenu.
L’examen des commentaires peut fournir des indices quant à savoir si l’image que l’utilisateur voit est réelle ou non, car d’autres auraient pu remarquer autre chose qui pointe vers la génération IA.
Il n’est pas toujours possible de déterminer si une image est générée par l’IA, alors soyez attentif à la possibilité qu’elle ne soit pas réelle.
