Parlons Tech 1 : l’IA générative à la loupe – éthique, biais algorithmiques, droits d’auteurs

Parlons Tech, le podcast d'Hello Future, le site de la Recherche et de l'Innovation d'Orange
• Hello Future lance Parlons Tech, sa nouvelle série de podcasts dédiée aux enjeux technologiques. Les orientations décidées aujourd’hui déterminent le monde de demain.
• Pour ce premier épisode, deux chercheuses chez la société Hugging Face, spécialisée dans le développement d’outils d’intelligence artificielle reviennent sur le fonctionnement et sur les enjeux sociétaux posés par l’IA générative.
• Comment l’IA générative est-elle entraînée ? Quels en sont les promesses, les risques et les limites pour les auteurs et les minorités ? Comment la société doit-elle aborder cette technologie ?

Parlons Tech, épisode 1 avec :

  • Giada Pistilli – Éthicienne principale chez Hugging Face
  • Clémentine Fourrier – Chercheuse chez Hugging Face

Générer une vidéo entière à partir d’un prompt

Ce premier épisode de Parlons Tech explore l’ et les outils capables de créer des images, du texte et du code. Giada Pistilli et Clémentine Fourrier discutent des enjeux éthiques liés à ces technologies, tels que les questions de droit d’auteur, de la vérification des informations et de biais algorithmiques. De fait, face à des utilisations malveillantes des technologies ou simplement des approches biaisées de leur usage et de leur entraînement, l’éthique en intelligence artificielle devient centrale pour prévenir les risques et promouvoir des approches positives.

« Au niveau des grandes thématiques qui vont probablement émerger, la première et celle sur laquelle on est en train de progresser en ce moment, c’est la multimodalité, c’est-à-dire n’être pas seulement sur du texte ou sur des images mais être capable de combiner les deux, voire être capable de générer à partir d’un prompt une vidéo entière… Ça va devenir de plus en plus compliqué de déterminer si une image est vraie ou pas. » – Clémentine Fourrier

« Imaginer d’avoir demain un assistant qui nous aider à naviguer [un tableur], c’est très intéressant et c’est très utile. Après, aujourd’hui on est au stade du Far-West, où on teste, on stresse, on casse, et si ça ne marche pas on essaie autre chose. Ça commence à devenir difficile de contenir tout ça. (…) Mais il y a des cas d’usages intéressants. »

« Il y a les cas où un ingénieur ou un développeur peut développer des biais de manière non intentionnelle, ce qui va avoir un impact sur une partie de la population (…). Mais il y a aussi des cas d’utilisation malveillante, par exemple de génération d’image de personnalités connues. » – Giada Pistilli

A lire aussi sur Hello Future

GettyImages - online training with a child and parent - formation en ligne avec enfant et adulte

IA éthique et enfants : les bénéfices d’une approche multidisciplinaire

Découvrir
GettyImages - neurotechnologies - neuronal networks - hearing

Neurotechnologies : les réseaux neuronaux écoutent comme le cerveau

Découvrir
PLEAIS

P-C. Langlais (Pleais) : « Nos modèles de langue sont entraînés sur des corpus ouverts »

Découvrir
GettyImages - WineSensed vin et IA - wine and AI

WineSensed : utiliser l’intelligence artificielle pour prédire les préférences gustatives

Découvrir
GettyImages - attaques IA nettoyage données - attacks AI cleaning data

Attaques sur les IA : le nettoyage des données devient un enjeu de cybersécurité

Découvrir
Parlons Tech, le podcast d'Hello Future, le site de la Recherche et de l'Innovation d'Orange

Parlons Tech 9 : comment l’IA bouleverse-t-elle la conception des jeux vidéo ?

Découvrir
Getty Images - architecture

IA : les architectes et urbanistes face à un challenge culturel

Découvrir