Machine learning

Cybersécurité : attaques et détournements des IA

• Les systèmes d’IA et d’IA générative peuvent être facilement détournés, par exemple pour générer du code malveillant, même lorsqu’ils sont conçus pour refuser ce type de demandes.
• D’autres types d’attaques, « les attaques par évasion de modèle » exploitent des entrées modifiées pour provoquer des comportements inattendus chez les IA, comme faire en sorte qu’une voiture autonome interprète mal les panneaux de signalisation.
• Les données empoisonnées peuvent quant à elles introduire des portes dérobées dans les modèles d’IA, permettant des comportements non prévus, ce qui est préoccupant en raison du manque de contrôle des ingénieurs sur les sources de leurs données.
Regarder la vidéo

Allier IA et clustering pour un réseau mobile sans congestion

Lire l'article
GettyImages - earthquake - séisme

Sauvetage : des drones capables de détecter les voix sous les décombres

Lire l'article
robotique molle

Parler sans corde vocale : un terminal assisté du machine learning pour retrouver la voix

Lire l'article

Des innovations à bas bruit : comment les sons contribuent au futur des télécoms

Lire l'article
GettyImages - neurotechnologies - neuronal networks - hearing

Neurotechnologies : les réseaux neuronaux écoutent comme le cerveau

Lire l'article
PLEAIS

P-C. Langlais (Pleais) : « Nos modèles de langue sont entraînés sur des corpus ouverts »

Lire l'article