Fake news et riposte : la course aux armements IA bat son plein

● Les progrès exponentiels des IA génératives, comme l’illustrent GPT-3 et Chat GPT ou des outils capables d’imiter des voix, rebattent les cartes dans la lutte contre les fake news.
● Ces nouveaux risques suscitent le besoin de nouvelles technologies capables de déceler le vrai du mensonger, et d’aider les investigateurs à repérer les campagnes de désinformation avec plus de précision.
● Des outils d’analyse perfectionnés, s’appuyant sur le machine learning et les réseaux de neurones, ont la capacité de déceler si des contenus ont été générés par les intelligences artificielles.

“Le décodage de l’info bénéficie de plus en plus des progrès de la technologie”

Après les deepfakes, des vidéos composites qui donnent l’illusion de véritables captations, c’est au tour des messages audio d’être investis par des intelligences artificielles qui, à partir de brefs extraits, sont désormais capables de synthétiser n’importe quelle voix. Des conversations téléphoniques ou des messages radiophoniques entiers peuvent ainsi être falsifiés. Un dispositif supplémentaire dans l’arsenal des créateurs de fake news, ces informations mensongères qui ont tout, du point de vue de la forme, pour être appréhendées comme réelles, notamment sur les médias sociaux. Perçues par un grand nombre d’internautes, ces fake news peuvent provoquer des tensions sociales, influencer les décisions des électeurs ou encore nuire à la réputation des entreprises et des personnes. Selon un rapport du think tank américain Brookings, les deepfakes représentent par exemple d’importants risques géopolitiques, dans la mesure où ils peuvent être utilisés dans des opérations militaires et de renseignement. Dans ce rapport, les chercheurs alertent quant à la facilité et la rapidité avec laquelle les deepfakes peuvent être conçus.

Les algorithmes seront bientôt capables de produire des contenus indiscernables de ceux produits par des êtres humains

Course à l’armement en IA

Une course à l’armement technologique est à l’œuvre. Les créateurs de fausses informations sont opposés à des initiatives qui conçoivent des outils permettant de les repérer et de les signaler à toutes celles et ceux qui en témoigneront. Les nouveaux outils s’inspirant de modèles de langages perfectionnés, comme Chat GPT-3, ou des logiciels comme FaceSwap ou DeepFaceLab, suscitent de nombreuses questions. Selon le World Economic Forum, les algorithmes pourront bientôt produire des contenus indiscernables de ceux produits par des êtres humains. Pour Josh A. Goldstein, chercheur à Georgetown, le risque est aussi de voir des intelligences artificielles produire des faux contenus personnalisés pour chaque internaute, en utilisant par exemple les données présentes sur les médias sociaux, afin de les rendre plus crédibles. L’intelligence artificielle permet également de faire baisser les coûts de production de fake news et, donc, d’en produire massivement.

À Madrid, le média Newtral est allé jusqu’à déployer son propre modèle de langage IA, baptisé ClaimHunter. Ce dernier a été entraîné pour analyser les discours politiques et vérifier certains faits (données, chiffres), revendiqués par les candidats. Un succès, puisque Newtral travaille désormais avec la London School of Economics et la chaîne ABC Australia pour développer un outil capable de déceler le vrai du faux dans les propos politiques.

Améliorer le fact-checking

La lutte entre les fact-checkers et les organisations qui produisent des fake news est inégale, indique dans Wired Tim Gordon, le cofondateur du cabinet de conseil Best Practice AI. Pour lui, les capacités de l’IA vont rendre le fact-checking, souvent réalisé par des organisations de petite taille, presque impossible. Cependant, le décodage de l’information bénéficie également des progrès de la technologie. Depuis 2018, des chercheurs du Computer Science and Artificial Intelligence Lab (Massachusetts Institute of Technology) et du Qatar Computing Research Institute, professent ainsi que la meilleure approche contre les fake news est de s’intéresser aux sources elles-mêmes, plutôt qu’aux informations isolées. Ils ont développé un système basé sur le machine learning pour détecter si une source est pertinente ou biaisée. En France aussi, des solutions émergent pour tenter de contenir le problème des fake news. Dans le cadre du projet Content Check démarré en 2016, des laboratoires de recherche  (Inria, CNRS, Ecole polytechnique et universités UPMC, Rennes-1 et Lyon-1) et des médias comme Le Monde travaillent ensemble pour mettre au point des logiciels destinés aux journalistes, afin de les aider à vérifier les faits.

Ioana Manolescu, chercheuse en informatique à l’Inria, est l’une des pionnières de Content Check. « Je suis partie du constat qu’avec le développement de l’open data, tout le monde a accès à de très nombreuses informations, confie la chercheuse à Farid Gueham, de la Fondation pour l’Innovation Politique. Mais ces informations sont disséminées, et pas toujours faciles d’accès : c’est très compliqué de les interconnecter. » L’équipe travaille par exemple sur un logiciel qui améliore l’accessibilité des données de l’Insee. Un crawler (robot d’indexation) analyse le site Internet ; les données sont ensuite extraites grâce à une API et consolidées dans une base de données par un algorithme, qui identifie le type de chaque cellule. Le logiciel permet de répondre à la recherche d’un journaliste, en retournant une valeur et un lien vers le tableau d’origine.

Intelligence artificielle et réseau de neurones

À l’Institut de recherche en informatique et systèmes aléatoires, Vincent Claveau, chargé de recherche au CNRS spécialisé dans le traitement automatique des langues, se concentre, lui, sur les vidéos truquées circulant sur les réseaux sociaux.

Souvent modifié et compressé plusieurs fois, le contenu est analysé afin de repérer s’il existe des images presque similaires sur le Web. « Un réseau de neurones est entraîné à les identifier, en comparant des représentations vectorielles », confie le chercheur au magazine Industrie & Technologies. Le calcul de la différence entre les deux images permet ensuite de mettre en avant les zones modifiées et d’identifier la retouche effectuée.

Son équipe commence également à travailler sur la décontextualisation des images, en analysant les caractéristiques des images et du texte associé, toujours grâce au deep learning. La course aux armements se poursuit de plus belle.

A lire aussi sur Hello Future

Un homme est accroupi sur un sol nu, tenant un objet en l'air avec une main et un crayon dans l'autre. À côté de lui, un ordinateur portable est ouvert, et il semble concentré sur son travail de recherche en extérieur.

Géologie, géoarchéologie, sciences judiciaires… l’IA fait parler les grains de sable

Découvrir

Processus de production, recette… quand l’IA améliore le goût de la bière

Découvrir
Une personne en blouse de laboratoire et lunettes de protection tient un microprocesseur dans sa main gantée. L'environnement est lumineux et moderne, suggérant un laboratoire de recherche ou de développement technologique.

Biais algorithmiques : le hardware influence également les réseaux de neurones

Découvrir

Cybersécurité : attaques et détournements des IA

Découvrir
GettyImages - online training with a child and parent - formation en ligne avec enfant et adulte

IA éthique et enfants : les bénéfices d’une approche multidisciplinaire

Découvrir
PLEAIS

P-C. Langlais (Pleais) : « Nos modèles de langue sont entraînés sur des corpus ouverts »

Découvrir