• Il prévient qu’il est impossible de savoir pour l’heure si l’IA est en mesure de tenir ses promesses et alerte sur les scénarios déterministes portant sur l’évolution des technologies.
• Pour lui, l’IA risque de créer une crise de confiance entre les individus, qui dépendent de plus en plus de la technologie. Ils doivent ainsi se recentrer sur leurs compétences humaines et leur réflexion, plutôt que de déléguer certaines tâches à l’approche statistique de l’IA.
Dans votre livre, vous expliquez que la technologie est historiquement intriquée avec notre identité humaine. Mais qu’en est-il de notre relation à l’IA ?
L’IA n’est effectivement pas une technologie comme les autres. D’ailleurs, il ne faut pas parler d’IA, mais « des IA », car elles sont toutes différentes. Ces systèmes ne sont pas entraînés sur les mêmes données et pas aux mêmes fins. L’IA n’est pas encore très bien comprise, car beaucoup de ces systèmes — comme la croissance des sociétés qui les produisent — se basent sur des promesses qui n’ont pas encore été réalisées. Ces IA permettent d’automatiser de nombreuses choses dans le monde des affaires, mais il est dangereux de dire que cela va inévitablement se produire. C’est une bonne chose d’automatiser certaines tâches, par exemple dans l’industrie ou l’agriculture, mais lorsque l’on parle de l’éducation, de la justice, du droit ou des décisions démocratiques, on parle de systèmes définis par la participation humaine. Les automatiser est dangereux. Il faut également éviter de tomber dans le piège de l’anthropomorphisme, et de considérer que ces machines ont des personnalités, des intentions, ou des pensées.
Quand on parle d’IA il ne faut pas oublier que l’on parle aussi d’une énorme production de données, voire d’une pollution généralisée des données et donc de l’érosion de la confiance dans l’information
Pourtant même les discours de politique économique expliquent que l’IA va tout changer…
Les débats sur la technologie, l’éthique et les valeurs technologiques mènent à de nombreux futurs possibles. Il n’est pas possible d’être déterministe sur la manière dont la technologie sera utilisée demain. L’idée que la technologie rendra le monde meilleur est une hypothèse, mais ce n’est pas évident. Il y a quarante ans, on disait que la technologie allait faire du Japon la première économie dominante. Ce n’est aujourd’hui absolument pas le cas, car on n’a pas prêté attention aux autres types de pouvoirs, ni au fait que l’avenir est incertain. Est-ce que ChatGPT va changer le monde ou est-ce que la prochaine version sera uniquement une innovation incrémentale ? Nous ne le savons pas. Nous assistons à des conflits armés dans le monde et, dans ce contexte, nous devons comprendre que les entreprises technologiques ne disposent pas d’informations parfaites, ni d’un contrôle parfait quant à leur évolution face au contexte géopolitique et à l’opinion publique.
Comment intéresser les citoyens aux enjeux idéologiques liés à l’impact de la technologie ?
Il faut être prudent sur les débats superficiels autour de la technologie : on parle beaucoup de fonctionnalités, d’efficacité technologique, etc., mais pas nécessairement de son intersection avec l’éducation des enfants, la culture, l’art, les émotions, etc. Dans mon livre, j’explique justement que les technologies ne sont pas neutres par exemple au regard des limites de l’usage de la reconnaissance faciale qui sont des outils qui peuvent limiter la liberté et les droits démocratiques. Il est vrai que les citoyens ne se soucient effectivement pas vraiment de l’éthique de l’IA, mais se sentent concernés s’ils comprennent qu’un gouvernement est capable de les suivre dans les lieux publics, ils ne s’intéressent pas au fait d’interdire les portables dans les écoles cependant ils se sentent concernés quand les médias sociaux ont des impacts négatifs sur leurs enfants.
Vous parlez d’une crise de confiance. Pourquoi ?
Quand on parle d’IA, il ne faut pas oublier que l’on parle aussi d’une énorme production de données, voire d’une pollution généralisée des données et donc de l’érosion de la confiance dans l’information. Je m’inquiète des dégâts qui risquent d’être causés aux communs de l’information et de la culture. Il sera plus difficile de se faire confiance en ligne. Résoudre ce problème de confiance sera bien plus difficile que de l’avoir créé. Il est très facile de tricher en utilisant l’IA, mais il est très difficile de détecter la tricherie de manière fiable. Il est très facile de créer des photographies d’art, des images, très difficile de les détecter de manière fiable. La question est désormais de savoir comment tester, mesurer et enseigner les compétences humaines ? Comment pouvons-nous avoir confiance dans le marché des idées et le marché des biens et des services ? Et aussi entre nous. Pour avoir confiance les uns dans les autres sur le lieu de travail ou dans le système éducatif.
Qu’en est-il de la place des compétences humaines ?
Prenons l’exemple du football : imaginez qu’une IA puisse analyser toutes les équipes du monde et prédire parfaitement tous les résultats de tous les championnats avant même qu’ils n’aient lieu. Pourriez-vous dire au monde : « J’ai résolu le problème du football, plus personne n’a besoin de jouer » et tous les joueurs de football peuvent maintenant faire quelque chose de plus utile ? L’objectif du football n’est pas le résultat, mais de voir et d’apprécier les compétences humaines des joueurs. Quand un enfant rentre de l’école et montre un dessin ou une rédaction, on ne lui dit pas qu’il est nul et qu’une IA fait mieux que lui. Les êtres humains acquièrent des compétences par la pratique, la pensée et la réflexion. Les IA n’acquièrent pas du tout de compétences de cette manière : ce qu’elles font est statistique. C’est important que les enfants utilisent la technologie, mais aussi prennent du recul à son égard.
En savoir plus :
Why we have co-evolved with technology (en anglais)