En poursuivant votre navigation sur ce site, sans modifier le paramétrage de vos cookies, vous acceptez l’utilisation de cookies nous permettant de réaliser des statistiques de visite.
En savoir plus

En ce moment

Preuves d’identité : quand l’IA brouille les pistes


“À l’échelle d’une société, c’est toute la capacité à établir la valeur certaine des preuves dans le document qui est susceptible de faire vaciller tous les pouvoirs.”


En générant des visages et des voix humaines très réalistes via les GAN (réseaux antagonistes génératifs), l’intelligence artificielle introduit le doute concernant les preuves d’identité autrefois irréfutables comme les photographies, les vidéos et les enregistrements sonores. Cette remise en question des notions d’identité et de véracité n’est pas sans conséquence pour nos sociétés.

Visage d’ange, regard franc et clair, esquisse de sourire : Katie Jones a trompé son monde sur LinkedIn jusqu’en juin 2019. La jeune femme, connectée à plusieurs personnalités liées à la Maison-Blanche, n’a jamais mis les pieds au Center for Strategic and International Studies de Washington ni à l’université du Michigan.

Katie Jones n’existe pas. Sa photo de profil a été générée par une technique de l’intelligence artificielle : les GAN (Generative Adversarial Networks ou “réseaux antagonistes génératifs”). Son compte LinkedIn est “typique des efforts d’espionnage” sur le réseau professionnel, pointent les experts interrogés par Associated Press.

Surtout, il remet en question ce que l’on croyait acquis sur les preuves d’identité autrefois irréfutables comme les photographies, les vidéos et les enregistrements sonores d’êtres humains.

Depuis leur introduction en 2014 par Ian Goodfellow, un chercheur américain spécialisé dans le machine learning, les GAN s’imposent comme une approche innovante de programmation pour l’élaboration de modèles génératifs (c’est-à-dire capables de produire eux-mêmes des données) et progressent chaque jour dans l’imitation de ce qui permettait jusqu’alors d’identifier un être humain de manière certaine à travers les caractéristiques uniques de son image ou de sa voix.

Ces algorithmes ont inspiré le site thispersondoesnotexist.com à un ingénieur logiciel du nom de Philip Wang. Visité plus de 4 millions de fois depuis sa mise en ligne en février 2019, ce “générateur de personnes qui n’existent pas” expose les portraits plus vrais que nature de femmes, d’hommes et d’enfants, à qui il ne manque ni le mascara, ni la discrète repousse de la barbe, ni le reflet pupillaire caractéristiques d’une authentique photo HD.

Le faussaire et le policier

Pour faire fonctionner son générateur, Philip Wang a utilisé un code écrit par NVidia, baptisé StyleGAN. Comme tous les GAN, cet algorithme met en compétition deux réseaux de neurones artificiels : le générateur auquel on peut attribuer le rôle de faussaire et le discriminateur, qui joue le rôle du policier.

Les deux réseaux s’entraînent mutuellement, l’un à créer une image qu’il veut faire passer pour un original, l’autre à traquer les copies qu’il ne juge pas assez “réalistes” au regard du stock de “vraies données” dont il dispose.

Au fil de cet entraînement non supervisé, les GAN s’avèrent capables de produire des datas d’excellence, qu’il s’agisse de designs (pour l’automobile, le prêt-à-porter, l’ameublement, le gaming…), de musiques ou encore de molécules pharmaceutiques.

Bienvenue dans l’hypertrucage

Mais toutes les initiatives en matière d’IA ne sont pas aussi vertueuses. Dans le monde de l’intelligence artificielle, les perspectives les plus excitantes côtoient les risques d’usages les plus sinistres, à l’image des “deepfakes”, ces hypertrucages réalistes qui permettent par exemple de substituer un visage à un autre sur une vidéo.

Au fil des innovations, l’IA ouvre la porte à des progrès éblouissants dans de nombreuses industries… tout en réduisant l’espace entre “identité réelle” et “identité factice”.

La création récente de MeINet, un synthétiseur vocal capable de reproduire la voix de n’importe qui (à commencer par celle de Bill Gates), par la division AI de Facebook, rend possible la génération de discours qui n’ont jamais été prononcés par la personne à qui on les prête. Ce qui permet de placer une déclaration de guerre dans la bouche d’un chef d’État, sans que la supercherie soit facile à démasquer de l’autre côté de l’écran.

Remise en cause de la notion d’identité

Comme l’a fait l’invention de la photographie en son temps, “les progrès de l’IA remettent fondamentalement en cause la capacité de faire preuve de son identité, c’est-à-dire d’établir la preuve tangible de son existence”, explique Olivier Ertzscheid, chercheur en sciences de l’information et de la communication, auteur de “Qu’est-ce que l’identité numérique ?” (OpenEdition Press, 2013).

“À l’échelle d’une société, c’est toute la capacité à établir la valeur certaine des preuves dans le document qui est susceptible de faire vaciller tous les pouvoirs”, poursuit-il.

Si “ces technologies ne sont problématiques que par l’usage que l’on en fait dans certaines sociétés, ajoute Olivier Ertzscheid, elles attaquent frontalement la question de la véracité, c’est-à-dire de la capacité à s’entendre de manière commune sur des faits qui ne sont pas contestables. Si chacun, dans une société, a le sentiment que tout est contestable, on bascule vite dans un régime systématique d’opposition, terreau du fanatisme et de la haine”.

La mise en place de régulations et la formation des citoyens apparaissent ainsi comme des remparts souhaitables contre les effets problématiques des nouveaux visages de l’IA, dès lors qu’ils jettent un trouble sur la notion d’identité et traversent la frontière poreuse qui sépare le “public” du “privé”.


“À l’échelle d’une société, c’est toute la capacité à établir la valeur certaine des preuves dans le document qui est susceptible de faire vaciller tous les pouvoirs.”


Mots-clés :

, , ,