• Pour ce premier épisode, deux chercheuses chez la société Hugging Face, spécialisée dans le développement d’outils d’intelligence artificielle reviennent sur le fonctionnement et sur les enjeux sociétaux posés par l’IA générative.
• Comment l’IA générative est-elle entraînée ? Quels en sont les promesses, les risques et les limites pour les auteurs et les minorités ? Comment la société doit-elle aborder cette technologie ?
Parlons Tech, épisode 1 avec :
- Giada Pistilli – Éthicienne principale chez Hugging Face
- Clémentine Fourrier – Chercheuse chez Hugging Face
Générer une vidéo entière à partir d’un prompt
Ce premier épisode de Parlons Tech explore l’ et les outils capables de créer des images, du texte et du code. Giada Pistilli et Clémentine Fourrier discutent des enjeux éthiques liés à ces technologies, tels que les questions de droit d’auteur, de la vérification des informations et de biais algorithmiques. De fait, face à des utilisations malveillantes des technologies ou simplement des approches biaisées de leur usage et de leur entraînement, l’éthique en intelligence artificielle devient centrale pour prévenir les risques et promouvoir des approches positives.
« Au niveau des grandes thématiques qui vont probablement émerger, la première et celle sur laquelle on est en train de progresser en ce moment, c’est la multimodalité, c’est-à-dire n’être pas seulement sur du texte ou sur des images mais être capable de combiner les deux, voire être capable de générer à partir d’un prompt une vidéo entière… Ça va devenir de plus en plus compliqué de déterminer si une image est vraie ou pas. » – Clémentine Fourrier
« Imaginer d’avoir demain un assistant qui nous aider à naviguer [un tableur], c’est très intéressant et c’est très utile. Après, aujourd’hui on est au stade du Far-West, où on teste, on stresse, on casse, et si ça ne marche pas on essaie autre chose. Ça commence à devenir difficile de contenir tout ça. (…) Mais il y a des cas d’usages intéressants. »
« Il y a les cas où un ingénieur ou un développeur peut développer des biais de manière non intentionnelle, ce qui va avoir un impact sur une partie de la population (…). Mais il y a aussi des cas d’utilisation malveillante, par exemple de génération d’image de personnalités connues. » – Giada Pistilli