Parlons Tech 1 : l’IA générative à la loupe – éthique, biais algorithmiques, droits d’auteurs

Parlons Tech, le podcast d'Hello Future, le site de la Recherche et de l'Innovation d'Orange
• Hello Future lance Parlons Tech, sa nouvelle série de podcasts dédiée aux enjeux technologiques. Les orientations décidées aujourd’hui déterminent le monde de demain.
• Pour ce premier épisode, deux chercheuses chez la société Hugging Face, spécialisée dans le développement d’outils d’intelligence artificielle reviennent sur le fonctionnement et sur les enjeux sociétaux posés par l’IA générative.
• Comment l’IA générative est-elle entraînée ? Quels en sont les promesses, les risques et les limites pour les auteurs et les minorités ? Comment la société doit-elle aborder cette technologie ?

Parlons Tech, épisode 1 avec :

  • Giada Pistilli – Éthicienne principale chez Hugging Face
  • Clémentine Fourrier – Chercheuse chez Hugging Face

Générer une vidéo entière à partir d’un prompt

Ce premier épisode de Parlons Tech explore l’ et les outils capables de créer des images, du texte et du code. Giada Pistilli et Clémentine Fourrier discutent des enjeux éthiques liés à ces technologies, tels que les questions de droit d’auteur, de la vérification des informations et de biais algorithmiques. De fait, face à des utilisations malveillantes des technologies ou simplement des approches biaisées de leur usage et de leur entraînement, l’éthique en intelligence artificielle devient centrale pour prévenir les risques et promouvoir des approches positives.

« Au niveau des grandes thématiques qui vont probablement émerger, la première et celle sur laquelle on est en train de progresser en ce moment, c’est la multimodalité, c’est-à-dire n’être pas seulement sur du texte ou sur des images mais être capable de combiner les deux, voire être capable de générer à partir d’un prompt une vidéo entière… Ça va devenir de plus en plus compliqué de déterminer si une image est vraie ou pas. » – Clémentine Fourrier

« Imaginer d’avoir demain un assistant qui nous aider à naviguer [un tableur], c’est très intéressant et c’est très utile. Après, aujourd’hui on est au stade du Far-West, où on teste, on stresse, on casse, et si ça ne marche pas on essaie autre chose. Ça commence à devenir difficile de contenir tout ça. (…) Mais il y a des cas d’usages intéressants. »

« Il y a les cas où un ingénieur ou un développeur peut développer des biais de manière non intentionnelle, ce qui va avoir un impact sur une partie de la population (…). Mais il y a aussi des cas d’utilisation malveillante, par exemple de génération d’image de personnalités connues. » – Giada Pistilli

A lire aussi sur Hello Future

Processus de production, recette… quand l’IA améliore le goût de la bière

Découvrir
Pranavesh Panakkal et Dr. Jamie Ellen Padgett expliquant le fonctionnement de leur modèle OpenSafe Fusion.

Inondations : comment le machine learning peut aider à sauver des vies

Découvrir
décryptage de la lettre de Charles Quint - Cécile Pierrot à la bibliothèque

L’IA ouvre de nouveaux outils à la recherche en histoire

Découvrir
Trois personnes collaborent autour d'un ordinateur portable dans un environnement de bureau moderne. L'une d'elles, debout, explique quelque chose aux deux autres assis, qui semblent attentifs. Sur la table, on peut voir un ordinateur de bureau, une tablette et des accessoires de bureau. Des plantes et des bureaux sont visibles en arrière-plan.

FairDeDup : un outil pour aider les modèles d’IA à se libérer des biais sociaux

Découvrir
Une femme se tient dans un train, tenant un téléphone. Elle porte un manteau beige et une écharpe bleue et marron. L'intérieur du train est lumineux, avec des sièges et des barres de soutien en métal.

Un modèle mathématique souhaite aider l’IA à anticiper les émotions humaines

Découvrir
Parlons Tech, le podcast d'Hello Future, le site de la Recherche et de l'Innovation d'Orange

Parlons Tech 14 : comment l’IA aide-t-elle à apprendre ?

Découvrir