● Des chercheurs appellent à exploiter les sciences cognitives dans le développement de l’IA pour créer des systèmes plus robustes et compréhensibles.
● Cela souligne des enjeux éthiques existants : éviter l’anthropomorphisme et encadrer l’usage de l’IA, tout en exploitant son potentiel pour automatiser des tâches pénibles.
Et si l’IA devient progressivement capable de généraliser davantage, à la manière des humains ? De fait, les humains sont capables d’analyser une situation qu’ils n’ont jamais observée et de prendre des décisions, tandis qu’une machine peine à extrapoler en dehors de ses données d’entraînement. Un humain est capable de généraliser à partir de peu d’exemples : si on lui montre un seul chat noir, il devinera facilement qu’un chat roux est également un chat, ce qu’une IA ne saura pas faire. Une équipe de recherche internationale a publié un article dans Nature Machine Intelligence qui appelle à un alignement plus fin entre ces deux mondes. Objectif : construire des IA plus robustes et plus proches de nos modes de pensée.
En sciences cognitives, la généralisation implique une réflexion conceptuelle et une abstraction. En IA, cela suppose qu’un système produise des résultats au-delà des données connues grâce à des systèmes neuro-symboliques, qui combinent logique et réseaux de neurones. « L’IA s’inspire de ce qu’on observe dans la nature ou chez les humains. Au départ, on a travaillé sur le raisonnement, puis sur les perceptions avec les capteurs et la prédiction et, aujourd’hui, on en est à la génération de contenu. On cherche toujours à reproduire ce que l’humain fait », note Emilie Sirvent-Hien, responsable du programme IA responsable chez Orange.
Le piège de l’anthropomorphisme
Les auteurs de l’article estiment que les capacités humaines reposent sur des mécanismes cognitifs comme la catégorisation par prototypes, l’analogie, ou la construction de modèles mentaux. Or, « les réseaux de neurones actuels réalisent des choses qu’on ne comprend pas toujours. On leur prête des intentions, des capacités de généralisation qu’ils n’ont pas », souligne la chercheuse. De fait, on risque de plus en plus de confondre la performance technique et la compréhension réelle d’une IA. « L’anthropomorphisme est un piège : on imagine que l’IA raisonne comme nous, alors qu’elle ne fait que calculer des probabilités », souligne-t-elle. Ainsi, de nouvelles questions éthiques se posent : si les futures IA sont capables de maîtriser la généralisation de la même manière que les humains, qui sera responsable de leurs décisions ? « La responsabilité doit toujours rester humaine. Ce sont les concepteurs, les utilisateurs, qui fixent les paramètres, choisissent les données, définissent les limites », ajoute Emilie Sirvent-Hien. Pour elle, l’enjeu est de garder le contrôle. Il faut pouvoir tracer les actions des IA et comprendre leurs décisions, même si on ne peut pas toujours les expliquer en détail. « Plus l’IA monte en puissance, plus il faut encadrer son usage. »
Un cadre pour définir la généralisation en IA
Mais comment expliquer les décisions d’une IA si ses raisonnements deviennent trop abstraits ou opaques ? Les chercheurs de Bielefeld proposent un cadre commun pour évaluer la généralisation, combinant approches cognitives et techniques d’IA. « Le plus grand défi réside dans le fait que la “généralisation” revêt une signification totalement différente pour l’IA et pour les humains », explique Benjamin Paaßen, professeur assistant en représentation des connaissances et apprentissage automatique à l’Université de Bielefeld. Pour son équipe de recherche, ce cadre commun doit comprendre trois axes : qu’entendons-nous par généralisation ? Comment y parvient-on ? Et comment peut-on l’évaluer ? Ainsi, ce projet invite à souligner l’importance de faire le lien entre les sciences cognitives et la recherche en IA.
Dans un contexte de transformation des métiers avec la GenAI, l’amélioration des modèles risque de poser de nouvelles questions dans les entreprises. « L’IA peut automatiser des tâches pénibles et libérer du temps pour des activités à plus forte valeur ajoutée. Comme avec la recherche sur Internet qui a rendu la connaissance plus accessible, on va peut-être moins solliciter certaines compétences, mais on en développera de nouvelles. L’important est d’éviter les excès et de saisir les opportunités », conclut Emilie Sirvent-Hien.
Sources :
Why machines struggle with the unknown: Exploring the gap in human and AI learning (en anglais)
En savoir plus :
Aligning generalisation between humans and machines (en anglais)
