• Des attaques sophistiquées comme les deepfakes, le phishing par IA ou la fuite de données via des outils mal utilisés risquent de se multiplier.
• À mesure que les systèmes deviennent plus complexes, comme les IA agentiques, les cybercriminels exploitent les failles d’interfaces, les erreurs de configuration et la mémoire des modèles.
La recherche en IA ne porte pas uniquement sur de nouveaux modèles révolutionnaires, ou des techniques pour réduire l’empreinte énergétique des processeurs graphiques : l’intelligence artificielle a introduit de nouvelles opportunités pour les attaquants, et donc des défis inédits pour la cybersécurité. D’ores et déjà, des équipes de recherche développent des systèmes pour contrer les hackers ; au Los Alamos National Laboratory, une équipe a développé une méthode pour lutter contre les attaques adversariales. Ces dernières consistent à introduire de légères perturbations dans les données d’entrée afin de tromper les modèles d’IA. Ce type de recherche illustre les besoins croissants en matière de cybersécurité face à de nouveaux types de menaces. « Sur les réseaux du darkweb, on observe des attaquants qui se passent entre eux les bonnes pratiques, les bons modèles pour opérer des usages illégitimes avec l’IA générative », note Vivien Mura, CTO Global d’Orange Cyberdefense. Il semble y avoir urgence : selon une étude menée par Capgemini Research Institute, 97 % des organisations ayant recours à la GenIA (intelligence artificielle générative) ont subi au moins un incident de sécurité lié à son usage au cours des douze mois précédant mai 2024.
De nouveaux risques apparaissent, comme les fuites de données liées à de mauvais usages de la part d’employés qui vont utiliser des outils de GenIA
L’IA générative au service des hackeurs
Outre l’écriture de code malveillant, l’IA générative est utilisée pour accélérer le travail des attaquants : « Elle leur permet de faciliter la reconnaissance avant une attaque, de collecter des données qui permettent d’identifier le bon point d’entrée, c’est-à-dire l’individu dans l’entreprise qui a les accès, ses points sensibles, son profil, etc. » Ainsi le temps entre la reconnaissance et l’attaque est raccourci. « De nouveaux risques apparaissent, comme les fuites de données liées à de mauvais usages de la part d’employés qui vont utiliser des outils de GenIA en versant des informations ou des fichiers dans les modèles. » À cela s’ajoute un risque de mauvaise configuration des espaces d’hébergement des fournisseurs d’intelligences artificielles : « Les utilisateurs ne maîtrisent pas toute la chaîne des fournisseurs tiers, or les hébergeurs et les développeurs d’applications ont des responsabilités propres. »
Des systèmes plus complexes qui ouvrent la voie à de nouvelles attaques
Début 2024, un employé d’une société d’ingénierie britannique aurait effectué un transfert apparemment normal de 25 millions de dollars, à la suite d’un appel vidéo avec sa direction. Il se serait malheureusement fait piéger par un deepfake. « Pour l’instant, on n’observe pas ce type d’attaque, mais on s’attend à en voir plus souvent, via soit du deepfake, soit du deepvoice », anticipe Vivien Mura. « On s’attend également à du hack d’IA, c’est-à-dire des attaques sur des systèmes pour que les attaquants accèdent à des informations ou puissent générer des actions sur un système d’information. » Ce type d’attaque étant coûteux et stratégique, il implique une forte rentabilité potentielle pour les attaquants. L’IA agentique n’est par ailleurs pas à l’abri : l’essor des systèmes multi-agents se déployant sur des interfaces qui ne sont pas complètement normalisées, « il y a nécessairement des vulnérabilités sur les systèmes d’interfaçage qui pourraient être exploitées pour détourner des agents d’IA à des fins malveillantes ». Par ailleurs, l’augmentation de la limite mémoire — la quantité maximale d’information utilisable — des systèmes d’IA augmente les risques : « Il devient de plus en plus intéressant pour un attaquant de voler un modèle ou un contexte – la mémorisation des infos transmises par l’utilisateur via ses prompts –, car ils contiennent de plus en plus d’informations sensibles. »
Sources :
LoRID: Low-Rank Iterative Diffusion for Adversarial Purification (en anglais)
En savoir plus :
