Deep learning

IA : les défis de la modération automatisée des contenus haineux

● Des outils d’IA peuvent être utilisés pour modérer des contenus à grande échelle. Cependant, ils peinent à être adaptés aux contextes sociaux et culturels variés.
● Un nouveau modèle cherche à mieux équilibrer précision et équité dans la détection des discours haineux.
● Chez Orange, une équipe pluridisciplinaire explore comment rendre ces technologies plus justes et efficaces en croisant données, IA et sciences sociales.
Lire l'article
A woman sits at a desk in front of a large computer screen displaying technical text. She is wearing glasses and a light sweater. Next to her are a laptop, a desk lamp, and a computer tower. The wall behind her has charts and a neon light.
Gros plan sur le visage d’une femme en blouse blanche fixant attentivement à travers l’oculaire d’un microscope noir, avec son œil droit parfaitement aligné.

Plus efficaces, moins lourds… zoom sur les nouveaux modèles de computer vision

Lire l'article
Illustration d’un robot souriant sortant de l’écran d’un grand smartphone, tendant la main vers un homme assis sur une chaise avec un ordinateur portable, en train d’interagir avec lui.

Agents IA : pourquoi simuler les comportements humains ?

Lire l'article
Parlons Tech, le podcast d'Hello Future, le site de la Recherche et de l'Innovation d'Orange

Parlons Tech 20 : déployer des agents IA en entreprise

Ecouter le podcast

L’IA omnimodale, une aubaine pour la relation clients

Lire l'article

Thérapie IA : entre promesses marketing et risques pour les utilisateurs

Lire l'article