Algorithme

IA : les défis de la modération automatisée des contenus haineux

● Des outils d’IA peuvent être utilisés pour modérer des contenus à grande échelle. Cependant, ils peinent à être adaptés aux contextes sociaux et culturels variés.
● Un nouveau modèle cherche à mieux équilibrer précision et équité dans la détection des discours haineux.
● Chez Orange, une équipe pluridisciplinaire explore comment rendre ces technologies plus justes et efficaces en croisant données, IA et sciences sociales.
Lire l'article
A woman sits at a desk in front of a large computer screen displaying technical text. She is wearing glasses and a light sweater. Next to her are a laptop, a desk lamp, and a computer tower. The wall behind her has charts and a neon light.
Personnage stylisé sautant devant un écran avec des icônes de technologie et de communication

Orange lance une initiative de recherche en calcul quantique, en vue d’optimiser les opérations réseaux

Lire l'article
Gros plan sur le visage d’une femme en blouse blanche fixant attentivement à travers l’oculaire d’un microscope noir, avec son œil droit parfaitement aligné.

Plus efficaces, moins lourds… zoom sur les nouveaux modèles de computer vision

Lire l'article
Illustration d’un robot souriant sortant de l’écran d’un grand smartphone, tendant la main vers un homme assis sur une chaise avec un ordinateur portable, en train d’interagir avec lui.

Agents IA : pourquoi simuler les comportements humains ?

Lire l'article
Une femme allongée sur un tapis de yoga, regardant son téléphone avec des écouteurs à côté d'elle. La lumière naturelle éclaire la pièce en bois.

IA relationnelles : des attachements à hauts risques

Lire l'article
Parlons Tech, le podcast d'Hello Future, le site de la Recherche et de l'Innovation d'Orange

Parlons Tech 20 : déployer des agents IA en entreprise

Ecouter le podcast