FairDeDup : un outil pour aider les modèles d’IA à se libérer des biais sociaux
• Entrainés sur des milliards de données, les grands modèles d’intelligence artificielle produisent des résultats souvent biaisés, ce qui pose d’importantes questions éthiques.
• Membre d’une équipe de recherche partenaire d’Adobe, Eric Slyman a travaillé sur un outil facilitant la représentation équitable des données en amont des entraînements des modèles.
• Baptisé FairDeDup, cet outil s’adapte à tous les modèles, fournit une représentation des données plus équitable et diminue les coûts d’entraînement.
Lire l'article
• Membre d’une équipe de recherche partenaire d’Adobe, Eric Slyman a travaillé sur un outil facilitant la représentation équitable des données en amont des entraînements des modèles.
• Baptisé FairDeDup, cet outil s’adapte à tous les modèles, fournit une représentation des données plus équitable et diminue les coûts d’entraînement.