Parlons Tech 1 : l’IA générative à la loupe – éthique, biais algorithmiques, droits d’auteurs

Parlons Tech, le podcast d'Hello Future, le site de la Recherche et de l'Innovation d'Orange
• Hello Future lance Parlons Tech, sa nouvelle série de podcasts dédiée aux enjeux technologiques. Les orientations décidées aujourd’hui déterminent le monde de demain.
• Pour ce premier épisode, deux chercheuses chez la société Hugging Face, spécialisée dans le développement d’outils d’intelligence artificielle reviennent sur le fonctionnement et sur les enjeux sociétaux posés par l’IA générative.
• Comment l’IA générative est-elle entraînée ? Quels en sont les promesses, les risques et les limites pour les auteurs et les minorités ? Comment la société doit-elle aborder cette technologie ?

Parlons Tech, épisode 1 avec :

  • Giada Pistilli – Éthicienne principale chez Hugging Face
  • Clémentine Fourrier – Chercheuse chez Hugging Face

Générer une vidéo entière à partir d’un prompt

Ce premier épisode de Parlons Tech explore l’ et les outils capables de créer des images, du texte et du code. Giada Pistilli et Clémentine Fourrier discutent des enjeux éthiques liés à ces technologies, tels que les questions de droit d’auteur, de la vérification des informations et de biais algorithmiques. De fait, face à des utilisations malveillantes des technologies ou simplement des approches biaisées de leur usage et de leur entraînement, l’éthique en intelligence artificielle devient centrale pour prévenir les risques et promouvoir des approches positives.

« Au niveau des grandes thématiques qui vont probablement émerger, la première et celle sur laquelle on est en train de progresser en ce moment, c’est la multimodalité, c’est-à-dire n’être pas seulement sur du texte ou sur des images mais être capable de combiner les deux, voire être capable de générer à partir d’un prompt une vidéo entière… Ça va devenir de plus en plus compliqué de déterminer si une image est vraie ou pas. » – Clémentine Fourrier

« Imaginer d’avoir demain un assistant qui nous aider à naviguer [un tableur], c’est très intéressant et c’est très utile. Après, aujourd’hui on est au stade du Far-West, où on teste, on stresse, on casse, et si ça ne marche pas on essaie autre chose. Ça commence à devenir difficile de contenir tout ça. (…) Mais il y a des cas d’usages intéressants. »

« Il y a les cas où un ingénieur ou un développeur peut développer des biais de manière non intentionnelle, ce qui va avoir un impact sur une partie de la population (…). Mais il y a aussi des cas d’utilisation malveillante, par exemple de génération d’image de personnalités connues. » – Giada Pistilli

A lire aussi sur Hello Future

Quatre collègues travaillent ensemble dans un bureau lumineux. Deux femmes se lèvent et se tapent dans la main en signe de célébration, tandis que deux hommes sont assis autour d’une table avec des ordinateurs portables.

GenAI et fonctions supports : chez Orange un modèle qui met la collaboration au centre

Découvrir
Parlons Tech, le podcast d'Hello Future, le site de la Recherche et de l'Innovation d'Orange

Parlons Tech 23 – IA et relations humaines : attachement, thérapie et risques sociaux

Découvrir

Parler par la pensée : une nouvelle interface pourrait rendre la parole aux patients

Découvrir

Intelligence artificielle : comment les Neoclouds transforment le marché du cloud

Découvrir

Vivien Mura : « Les entreprises doivent limiter l’autonomie des agents IA »

Découvrir
Le problème de la généralisation chez l'IA - AI is bad at generalization unlike humans

IA et sciences cognitives : vers une capacité à généraliser plus proche de l’humain ?

Découvrir