Cybersécurité : attaques et détournements des IA

• Les systèmes d’IA et d’IA générative peuvent être facilement détournés, par exemple pour générer du code malveillant, même lorsqu’ils sont conçus pour refuser ce type de demandes.
• D’autres types d’attaques, « les attaques par évasion de modèle » exploitent des entrées modifiées pour provoquer des comportements inattendus chez les IA, comme faire en sorte qu’une voiture autonome interprète mal les panneaux de signalisation.
• Les données empoisonnées peuvent quant à elles introduire des portes dérobées dans les modèles d’IA, permettant des comportements non prévus, ce qui est préoccupant en raison du manque de contrôle des ingénieurs sur les sources de leurs données.

A lire aussi sur Hello Future

Sécuriser les systèmes d’IA dans l’espace

Découvrir

Vivien Mura : « Les entreprises doivent limiter l’autonomie des agents IA »

Découvrir
Le problème de la généralisation chez l'IA - AI is bad at generalization unlike humans

IA et sciences cognitives : vers une capacité à généraliser plus proche de l’humain ?

Découvrir
A la recherche de la méthode pour réussir l’IA générative en entreprise

A la recherche de la méthode pour réussir l’IA générative en entreprise

Découvrir
A woman sits at a desk in front of a large computer screen displaying technical text. She is wearing glasses and a light sweater. Next to her are a laptop, a desk lamp, and a computer tower. The wall behind her has charts and a neon light.

IA : les défis de la modération automatisée des contenus haineux

Découvrir
Gros plan sur le visage d’une femme en blouse blanche fixant attentivement à travers l’oculaire d’un microscope noir, avec son œil droit parfaitement aligné.

Plus efficaces, moins lourds… zoom sur les nouveaux modèles de computer vision

Découvrir
Illustration d’un robot souriant sortant de l’écran d’un grand smartphone, tendant la main vers un homme assis sur une chaise avec un ordinateur portable, en train d’interagir avec lui.

Agents IA : pourquoi simuler les comportements humains ?

Découvrir