● En Europe, c’est le projet Vera.ai qui finance des recherches académiques destinées à développer des outils d’intelligence artificielle de vérification de l’information, en coopération avec des médias partenaires dans différents États membres.
● L’intelligence artificielle permet aux fact-checkers de repérer plus facilement les vidéos, images ou bandes sonores, qui ont été falsifiées.
Le gouvernement japonais souhaite utiliser l’intelligence artificielle pour lutter contre les campagnes de désinformation et les fake news qui se répandent sur les médias sociaux, indique le journal Nikkei Asia. Un nouveau projet initié par le ministère des Affaires étrangères nippon vise à créer des outils qui devraient permettre d’automatiser l’analyse des acteurs étrangers qui souhaitent influencer l’opinion publique japonaise. La force d’autodéfense japonaise doit déployer une unité spécialisée dans les fake news d’ici à dix ans, tandis que la force maritime d’autodéfense japonaise doit lancer une unité combinant des capacités en cybersécurité et communication. Le symbole est fort : la mobilisation de forces militaires, et leur investissement dans l’intelligence artificielle pour lutter contre la désinformation, offrent une idée claire du poids de la menace des fake news. En Inde, c’est la commission parlementaire permanente des technologies de l’information et de la communication qui a pressé, mi-février, le gouvernement de Modi – le premier ministre indien – de créer des unités dédiées au fact-checking, tout en recommandant l’usage de l’intelligence artificielle.
Les formats audio sont également étudiés, puisque nous travaillons sur des outils qui permettent de voir si des enregistrements ont été manipulés
Le projet Vera.ai en Europe
Solution miracle ou non, l’intelligence artificielle est perçue aux quatre coins du monde comme un outil central dans la lutte contre les campagnes de désinformation, qui ont pour but de déstabiliser les démocraties ou d’influencer l’opinion publique. En septembre 2022, la Commission européenne consacre 5M€ au projet Vera.ai de financement des projets de recherche européens en intelligence artificielle pour lutter contre les fake news. En France, trois chercheurs affiliés à l’Université Paris-Saclay, à l’ENS Paris-Saclay, au CNRS et au Centre Borelli proposent une méthode pour analyser les traces laissées par le dématriçage, l’une des premières étapes de la formation d’une photographie, pour détecter les fausses images grâce à des algorithmes qui détectent des incohérences. L’un des coordinateurs de Vera.ai, Jochen Spangenberg, explique que « l’objectif est de fournir des outils pour aider celles et ceux qui font du fact-checking, qu’ils soient fact-checkers, journalistes ou encore chargés d’enquêter sur les droits humains ou d’étudier les crimes de guerre ». Ces technologies permettent, par exemple, d’analyser le langage des messages sur les médias sociaux, pour détecter des schémas et en déduire les formes de propagation de la désinformation. « Les formats audio sont également étudiés grâce à des outils qui permettent de voir si des enregistrements ont été manipulés, en analysant des variations de fréquence sur des fichiers. »
Analyser précisément les images et les vidéos
L’idée derrière le projet Vera.ai est de centraliser ces outils sur une plateforme unique. « Certains modules seront sans doute payants, mais la plupart seront en open source », explique Jochen Spangenberg. De fait, l’exploitation des systèmes d’analyse de vidéo ou d’image comporte un coût d’infrastructure qu’il est nécessaire d’amortir. « Certaines technologies en analyse d’image sont très avancées et peuvent découper des vidéos scène par scène pour réaliser ensuite des analyses d’images en recherche inversée, pour être en mesure de savoir si celles-ci sont authentiques ou non. » Vera.ai a également vocation à financer des recherches académiques dans l’étude de l’IA et des fake news. L’Union européenne finance d’autres projets de lutte contre la désinformation comme EDMO, un observatoire indépendant qui rassemble des spécialistes du fact-checking et des chercheurs dont l’objectif est de propager le savoir scientifique sur la désinformation. On y recense par exemple des études comme celle de l’Université de Navarre qui analyse les campagnes de désinformation autour du Covid-19 en Espagne, ou encore un article de recherche publié par des chercheurs roumains qui ont développé un outil automatique de détection de fake news basé sur le machine learning. Depuis début 2023, l’initiative EDMO couvre l’ensemble des États membres grâce à différents hubs partenaires, dont DE FACTO en France, qui est porté par Sciences Po, l’AFP, le CLEMI (Centre pour l’éducation aux médias et à l’information) et XWiki SAS.