FairDeDup : un outil pour aider les modèles d’IA à se libérer des biais sociaux
• Entrainés sur des milliards de données, les grands modèles d’intelligence artificielle produisent des résultats souvent biaisés, ce qui pose d’importantes questions éthiques.
• Membre d’une équipe de recherche partenaire d’Adobe, Eric Slyman a travaillé sur un outil facilitant la représentation équitable des données en amont des entraînements des modèles.
• Baptisé FairDeDup, cet outil s’adapte à tous les modèles, fournit une représentation des données plus équitable et diminue les coûts d’entraînement.
Lire l'article
• Membre d’une équipe de recherche partenaire d’Adobe, Eric Slyman a travaillé sur un outil facilitant la représentation équitable des données en amont des entraînements des modèles.
• Baptisé FairDeDup, cet outil s’adapte à tous les modèles, fournit une représentation des données plus équitable et diminue les coûts d’entraînement.


Parlons Tech 14 : comment l’IA aide-t-elle à apprendre ?
Ecouter le podcast
Tom Chatfield : « L’IA entraîne une pollution généralisée des données, érodant la confiance »
Lire l'article
David Caswell : « Tous les journalistes doivent être formés à l’IA générative »
Lire l'article
Parlons Tech 13 : la médecine du futur dopée par l’IA
Ecouter le podcast
