• Des chercheurs de l’Université d’Oxford recommandent une approche multidisciplinaire pour concevoir des systèmes d’IA adaptés aux enfants, impliquant les développeurs et les designers, ainsi que les parents et enseignants.
• Ils déplorent le peu, voire l’absence de recherche existant sur l’impact des algorithmes sur le développement à long terme des enfants.
Expérience personnalisée, soutien scolaire automatisé, jeux vidéo… Plusieurs usages numériques destinés aux enfants et adolescents reposent sur des technologies d’intelligence artificielle parfois inadaptées à ces publics. Pire : les algorithmes de recommandation de contenus peuvent fragiliser leur santé mentale. Une enquête de RTÉ a récemment montré que sur des comptes TikTok d’enfants de 13 ans — créés dans le cadre de l’enquête — s’affichaient des contenus relatifs à la mutilation et aux pensées suicidaires. Le problème découle du fait que, si les grands principes d’IA responsables font aujourd’hui consensus, ces lignes directrices ne protègent pas les enfants. « Il est important de trouver une manière de transférer ces principes en pratiques réelles adaptées aux usages et besoins des enfants, et en phase avec leur stade de développement », explique Ge Wang, doctorante à l’université d’Oxford. « C’est une tâche difficile, car la communauté IA mesure le succès de ses systèmes à l’aide de données quantifiables et il est très difficile d’intégrer des données relatives au comportement et au développement humain dès la conception des outils. »
Il n’y a eu aucune initiative visant à intégrer les principes de protection des enfants dans les innovations de l’IA qui s’appuient sur les grands modèles de langue.
Construire des outils d’IA adaptés à ces publics
Dans un article publié dans Nature Machine Intelligence, elle a identifié avec ses collègues différents défis. « En étudiant les principes d’éthique IA à l’international, nous nous sommes rendu compte que l’aspect développemental des enfants n’est pas pris en considération. » Leur âge, leur contexte d’évolution et leur étape de développement — par exemple l’adolescence, période critique dans l’acquisition des usages numériques —, méritent une plus grande attention de la part des éditeurs et développeurs d’outils d’intelligence artificielle. « Il faut pouvoir identifier l’intérêt supérieur des enfants, aller sur le terrain pour les écouter afin de pouvoir quantifier et qualifier leurs intérêts, et écouter la voix des parties prenantes que sont les parents, l’école, etc. » Il s’agit également d’un défi académique. « Comme ces technologies, par exemple les outils d’IA de génération d’image, sont récentes, peu de preuves de l’impact des algorithmes sur les adolescents et les enfants existent déjà. Aujourd’hui, les recherches existantes en la matière sont limitées. » Il n’existe ainsi aucune initiative visant à intégrer les principes de protection des enfants dans les innovations de l’IA qui s’appuient sur les grands modèles de langue, ce qui peut notamment exposer les enfants à des contenus inadaptés et biaisés.
Réévaluer le rôle des parents et des enseignants
Le rôle des parents dans l’accompagnement des enfants au développement d’une pensée critique à l’égard des usages numériques est crucial. « Il faut apprendre aux enfants à se demander pourquoi tel ou tel contenu leur est suggéré, et les sensibiliser à leurs droits en ligne, puisqu’ils ne réalisent par exemple pas toujours que leurs données sont monétisées », note Ge Wang. L’article souligne un autre paradoxe : il est souvent convenu que les parents disposent d’une plus grande expertise que leurs enfants en matière de numérique, ce qui ne se vérifie pas toujours. Les chercheurs suggèrent donc l’adoption d’une approche centrée sur les enfants, plutôt que sur les parents et/ou enseignants.
Développer des approches multidisciplinaires
Les chercheurs indiquent avoir « remarqué un décalage dans les connaissances et les méthodologies employées par les chercheurs et les praticiens dans diverses disciplines ». Ils recommandent la création d’une approche multidisciplinaire pour concevoir des systèmes d’IA capables de relever de nouveaux défis liés aux usages des enfants. Il s’agit d’intégrer l’ensemble des parties prenantes dans différents domaines : l’interaction homme-machine, le design, les algorithmes, la protection des données et l’éducation. Les développeurs et designers d’outils IA doivent collaborer pour concevoir des principes d’éthique IA dédiés aux enfants. « Le soutien de l’industrie pour interpréter les grandes lignes directrices fait défaut aux développeurs. Nous suggérons que les praticiens et les organisations d’éthique IA améliorent leur collaboration avec les développeurs et les designers afin d’adopter une approche ascendante et créer une base commune pour les normes et les pratiques de l’industrie. »
Sources :
Wang, G., Zhao, J., Van Kleek, M. et al. Challenges and opportunities in translating ethical AI principles into practice for children. Nat Mach Intell 6, 265–270 (2024). https://doi.org/10.1038/s42256-024-00805-x