Deep learning

Cybersécurité : attaques et détournements des IA

• Les systèmes d’IA et d’IA générative peuvent être facilement détournés, par exemple pour générer du code malveillant, même lorsqu’ils sont conçus pour refuser ce type de demandes.
• D’autres types d’attaques, « les attaques par évasion de modèle » exploitent des entrées modifiées pour provoquer des comportements inattendus chez les IA, comme faire en sorte qu’une voiture autonome interprète mal les panneaux de signalisation.
• Les données empoisonnées peuvent quant à elles introduire des portes dérobées dans les modèles d’IA, permettant des comportements non prévus, ce qui est préoccupant en raison du manque de contrôle des ingénieurs sur les sources de leurs données.
Regarder la vidéo
Benoît Carré - Skygge

Udio, Suno… la musique générée par IA déjà compétitive sur les commandes à faible valeur ajoutée

Lire l'article
GettyImages - online training with a child and parent - formation en ligne avec enfant et adulte

IA éthique et enfants : les bénéfices d’une approche multidisciplinaire

Lire l'article
GettyImages - earthquake - séisme

Sauvetage : des drones capables de détecter les voix sous les décombres

Lire l'article
GettyImages - neurotechnologies - neuronal networks - hearing

Neurotechnologies : les réseaux neuronaux écoutent comme le cerveau

Lire l'article
PLEAIS

P-C. Langlais (Pleais) : « Nos modèles de langue sont entraînés sur des corpus ouverts »

Lire l'article
GettyImages - semiconductor silicon wafer

La course à l’IA rebat les cartes de l’industrie des semiconducteurs

Lire l'article