Cybersécurité : attaques et détournements des IA

• Les systèmes d’IA et d’IA générative peuvent être facilement détournés, par exemple pour générer du code malveillant, même lorsqu’ils sont conçus pour refuser ce type de demandes.
• D’autres types d’attaques, « les attaques par évasion de modèle » exploitent des entrées modifiées pour provoquer des comportements inattendus chez les IA, comme faire en sorte qu’une voiture autonome interprète mal les panneaux de signalisation.
• Les données empoisonnées peuvent quant à elles introduire des portes dérobées dans les modèles d’IA, permettant des comportements non prévus, ce qui est préoccupant en raison du manque de contrôle des ingénieurs sur les sources de leurs données.

A lire aussi sur Hello Future

Quatre collègues travaillent ensemble dans un bureau lumineux. Deux femmes se lèvent et se tapent dans la main en signe de célébration, tandis que deux hommes sont assis autour d’une table avec des ordinateurs portables.

GenAI et fonctions supports : chez Orange un modèle qui met la collaboration au centre

Découvrir
Parlons Tech, le podcast d'Hello Future, le site de la Recherche et de l'Innovation d'Orange

Parlons Tech 23 – IA et relations humaines : attachement, thérapie et risques sociaux

Découvrir

Parler par la pensée : une nouvelle interface pourrait rendre la parole aux patients

Découvrir

Intelligence artificielle : comment les Neoclouds transforment le marché du cloud

Découvrir

Sécuriser les systèmes d’IA dans l’espace

Découvrir

Vivien Mura : « Les entreprises doivent limiter l’autonomie des agents IA »

Découvrir