● Des études récentes montrent que des modèles de langage comme GPT-4o peuvent manifester des changements d’attitude similaires à ceux des humains, notamment en affichant des comportements compatibles avec la dissonance cognitive.
● Au MIT et à l’Université de Washington les chercheurs explorent l’intégration de comportements irrationnels dans les assistants IA pour les rendre plus compatibles avec les comportements humains.
Les agents IA vont-ils un jour réussir à se faire passer pour des humains et accomplir des tâches professionnelles et personnelles avec la même subtilité ? Selon des chercheurs du Institute for Human-Centered AI (HAI) à Stanford, « les agents IA peuvent être utilisés pour simuler des comportements humains complexes, offrant ainsi des opportunités sans précédent pour la modélisation et la prédiction des actions humaines ». Les chercheurs ont développé l’architecture d’agents IA génératifs permettant de simuler les attitudes et comportements d’un millier de personnes réelles. Des avancées technologiques qui pourraient avoir des impacts considérables dans la psychologie, la sociologie et même l’économie. « En utilisant des agents IA pour simuler le comportement humain, nous pouvons mieux comprendre les dynamiques sociales et développer des interventions plus efficaces. » Ces outils pourraient permettre, par exemple, de tester l’impact de messages de santé publique. Leurs implications pour le marketing sont plus inquiétantes.
Le LLM a développé une forme analogique d’autonomie cognitive semblable à celle de l’homme
Les grands modèles de langue (LLMs) comme GPT-4o ne traitent plus les informations de manière mécanique et commencent à manifester des comportements qui ressemblent étrangement à ceux des humains. Des chercheurs ont mené deux études pour observer si GPT-4o changeait ses attitudes envers Vladimir Poutine après avoir écrit des essais positifs ou négatifs à son sujet. Les résultats ont montré que GPT-4o affichait effectivement des changements d’attitude similaires à ceux observés chez les humains. Par ailleurs, ces changements ont été d’autant plus marqués quand le modèle avait l’illusion de choisir librement le type d’essai à écrire. « Nous démontrons que le GPT-4o affiche des comportements compatibles avec la dissonance cognitive, une caractéristique profonde et pas toujours rationnelle de la cognition humaine […]. Nous concluons que le LLM a développé une forme analogique d’autonomie cognitive semblable à celle de l’homme », indiquent-ils.
Des « comportements » dus aux corpus d’entraînement
« Les données utilisées pour l’apprentissage de ces réseaux sont des productions humaines qui comportent des patterns de comportements humains (par exemple, des conversations) et des structures de connaissances humaines que l’IA a tendance à reproduire. L’utilisation de ces données peut d’ailleurs reproduire des biais cognitifs et sociaux humains », explique Moustafa Zouinar, chercheur au laboratoire de Sciences Humaines et Sociales d’Orange. Il précise qu’il s’agit d’un processus mathématique probabiliste complexe d’optimisation de poids. « Ce n’est pas parce que deux systèmes produisent exactement les mêmes comportements (plan fonctionnel) qu’ils fonctionnent exactement de la même façon (plan ontologique). » Il invite à la prudence quant à l’interprétation des similitudes entre le fonctionnement cognitif humain et les intelligences artificielles.
Des IA moins rationnelles pour s’adapter aux humains
Néanmoins, les résultats de ces études peuvent, selon leurs auteurs, indiquer que ces modèles pourraient refléter des aspects plus profonds de la psychologie humaine que ce qui avait été initialement supposé. « On entraîne aussi certains systèmes à se comporter comme des humains parfois en les ajustant notamment via le fine tuning des modèles », note Moustafa Zouinar. Puisque les humains ne sont pas toujours rationnels dans leur prise de décision, des chercheurs du MIT et de l’Université de Washington explorent comment intégrer ces comportements irrationnels dans les assistants IA. Objectif : les rendre plus compatibles avec les comportements humains pour simuler des réactions en miroir. Leur modèle peut automatiquement déduire les contraintes computationnelles d’un agent en observant ses actions précédentes. Le résultat est appelé « budget d’inférence » de l’agent et il peut être utilisé pour prédire son comportement futur.
Cette méthode peut être utilisée pour déduire les objectifs de navigation d’une personne à partir d’itinéraires antérieurs et pour prédire les mouvements ultérieurs des joueurs dans les parties d’échecs. De tels travaux pourraient permettre, à l’avenir, d’enseigner aux IA les comportements humains pour, par exemple, mieux les aider à comprendre les erreurs commises par les humains. Cette approche pourrait aussi améliorer les méthodes d’apprentissage par renforcement, couramment utilisé en robotique et dans d’autres domaines.
Sources :
Simulating Human Behavior with AI Agents (en anglais)
Kernels of selfhood: GPT-4o shows humanlike patterns of cognitive dissonance moderated by free choice (en anglais)
Modeling boundedly rational agents with latent inference budgets (en anglais)
En savoir plus :
