IA : les défis de la modération automatisée des contenus haineux
● Des outils d’IA peuvent être utilisés pour modérer des contenus à grande échelle. Cependant, ils peinent à être adaptés aux contextes sociaux et culturels variés.
● Un nouveau modèle cherche à mieux équilibrer précision et équité dans la détection des discours haineux.
● Chez Orange, une équipe pluridisciplinaire explore comment rendre ces technologies plus justes et efficaces en croisant données, IA et sciences sociales.
Lire l'article
● Un nouveau modèle cherche à mieux équilibrer précision et équité dans la détection des discours haineux.
● Chez Orange, une équipe pluridisciplinaire explore comment rendre ces technologies plus justes et efficaces en croisant données, IA et sciences sociales.


Une expérience optimisée des aides auditives avec les smartphones
Lire l'article
Parlons Tech 16 : les femmes architectes de la tech à impact
Ecouter le podcast
Ne pas reproduire préjugés et erreurs humaines dans les LLMs : comment faire ?
Lire l'article
Comprendre la perception des risques en ligne du grand public : au-delà des contours officiels
Lire l'article
