● Vulnérabilités protocolaires, détournement d’usage, biais algorithmiques… les menaces se multiplient avec l’automatisation.
● Pour sécuriser ces modèles, Zero Trust, supervision en temps réel et alignement des modèles sont essentiels.
La sécurité des modèles de langage et des agents IA est devenue prioritaire. Pourquoi ?
Nous entrons dans l’ère des IA multi-agents. Ce sont des systèmes autonomes et interconnectés qui interagissent entre eux et avec des outils et des infrastructures numériques. Ils ne se contentent plus de générer du texte ou du code : ils agissent dans des écosystèmes réels, avec des niveaux d’accès de plus en plus élevés. A la recherche du chemin le plus rentable, les attaquants vont cibler ces nouveaux points d’entrée.
Si un agent IA peut accéder à des données sensibles ou automatiser des processus critiques comme des paiements ou des chaînes logistiques, il devient une cible de choix. Les risques ne sont plus théoriques : des vulnérabilités liées aux protocoles d’interaction entre agents, comme le protocole MCP, ne sont pas encore exploitées mais déjà révélées.
Il est crucial de pouvoir authentifier des agents pour vérifier, notamment, qu’un agent qui se connecte à un autre n’est pas compromis et que la requête est légitime
Quels sont ces nouveaux types de vulnérabilités ?
On observe plusieurs catégories, à commencer par les vulnérabilités protocolaires : les agents communiquent entre eux via des protocoles qui peuvent être détournés pour faire exécuter des actions non autorisées. Ensuite, il y a le détournement d’usage : un agent conçu pour une tâche légitime, comme gérer des commandes, peut être manipulé pour accomplir une commande malveillante. Il est également crucial de pouvoir authentifier des agents grâce à des mécanismes d’authentification.
Enfin, les problèmes d’alignement se posent avec acuité : un agent peut agir en dehors des valeurs ou des politiques de sécurité de l’organisation qui l’utilise, surtout si les garde-fous intégrés par le fournisseur ne correspondent pas à ses besoins. Imaginez un agent bancaire qui, en raison d’un biais ou d’une faille, valide une transaction frauduleuse parce qu’elle semble « normale » dans son contexte.
Comment les entreprises peuvent-elles sécuriser leurs systèmes face à ces risques ?
Pour commencer, elles doivent limiter l’autonomie des agents : ils ne devraient pas avoir un contrôle total sur une chaîne de valeur sans validation humaine, surtout pour des actions sensibles. Il faut par ailleurs appliquer des principes classiques de cybersécurité : ségrégation des accès et des données, mises à jour régulières, supervision en temps réel, etc. L’architecture Zero Trust est aussi clé. Chaque accès doit être vérifié, même à l’intérieur du réseau. Enfin, il faut repenser l’alignement des modèles c’est-à-dire que les garde-fous doivent être adaptés aux valeurs et aux politiques de l’entreprise. Ils devraient idéalement être imposés par défaut par le fournisseur. Par exemple, un agent utilisé dans la santé doit refuser de partager des données patients, même si sa formation initiale ne l’interdit pas explicitement.
Pouvez-vous donner des exemples concrets de risques pour les entreprises ou les citoyens ?
Dans la logistique, si un agent est compromis, il peut rediriger des livraisons vers des adresses frauduleuses. En finance, les protocoles qui automatisent les paiements pourraient, s’ils sont mal sécurisés, être exploités pour réaliser des transactions non autorisées. Une fuite ne se limiterait plus à des numéros de carte bancaire, mais pourrait exposer des profils complets – habitudes, préférences, historiques – revendus sur le dark web.
Quels sont les risques pour les développeurs utilisant des assistants IA comme GitHub Copilot ?
Le risque dans le « vibe coding » est de faire confiance aveuglément au code généré par l’IA, sans vérification. Les modèles actuels, comme Gemini ou Claude, sont si performants qu’ils peuvent produire du code complexe… mais aussi des vulnérabilités cachées. L’éditeur ESET a noté des cas où des rançongiciels utilisent des LLM pour générer du code malveillant unique et indétectable par les antivirus traditionnels. Sans parler des biais car, si l’IA apprend à partir de codes vulnérables existants, elle risque de reproduire ou d’amplifier ces failles. Les développeurs doivent donc auditer systématiquement le code généré comme lorsqu’ils recopient des portions de code depuis des sites Internet.
Sources :
Predicting and improving complex beer flavor through machine learning (en anglais)
En savoir plus :
The attack surface you can’t see: Securing your autonomous AI and agentic systems (en anglais)







