Cybersécurité : attaques et détournements des IA
• Les systèmes d’IA et d’IA générative peuvent être facilement détournés, par exemple pour générer du code malveillant, même lorsqu’ils sont conçus pour refuser ce type de demandes.
• D’autres types d’attaques, « les attaques par évasion de modèle » exploitent des entrées modifiées pour provoquer des comportements inattendus chez les IA, comme faire en sorte qu’une voiture autonome interprète mal les panneaux de signalisation.
• Les données empoisonnées peuvent quant à elles introduire des portes dérobées dans les modèles d’IA, permettant des comportements non prévus, ce qui est préoccupant en raison du manque de contrôle des ingénieurs sur les sources de leurs données.
Regarder la vidéo
• D’autres types d’attaques, « les attaques par évasion de modèle » exploitent des entrées modifiées pour provoquer des comportements inattendus chez les IA, comme faire en sorte qu’une voiture autonome interprète mal les panneaux de signalisation.
• Les données empoisonnées peuvent quant à elles introduire des portes dérobées dans les modèles d’IA, permettant des comportements non prévus, ce qui est préoccupant en raison du manque de contrôle des ingénieurs sur les sources de leurs données.


Le modèle de propagation radio d’Orange, essentiel dans l’élaboration des réseaux mobiles
Lire l'article
De nouveaux défis algorithmiques pour la virtualisation des réseaux
Lire l'article
Udio, Suno… la musique générée par IA déjà compétitive sur les commandes à faible valeur ajoutée
Lire l'article
IA éthique et enfants : les bénéfices d’une approche multidisciplinaire
Lire l'article
P-C. Langlais (Pleais) : « Nos modèles de langue sont entraînés sur des corpus ouverts »
Lire l'article