• Il appréhende l’intelligence artificielle comme une véritable opportunité de créer de nouveaux services autour des données publiques, l’IA permettant notamment d’exploiter des données non structurées.
• Le chercheur estime qu’en France, pourtant en tête des classements internationaux en matière d’ouverture des données publiques, la politique d’open data reste fragile. Elle nécessite que les parties prenantes respectent la loi et ouvrent leurs données.
Quelles sont les opportunités rencontrées par la convergence de l’ouverture des données au public et de l’intelligence artificielle ?
L’intelligence artificielle va tout changer : jusqu’à présent, on s’était intéressé aux données publiques structurées. Désormais, les données non structurées vont pouvoir être exploitées par l’IA et de nouveaux types de services pourront émerger. Elles prennent également une nouvelle valeur puisqu’elles participent à l’entraînement des modèles d’IA. Des entreprises comme Delibia — une plateforme d’intelligence artificielle pour les agents et élus des collectivités territoriales — proposent des outils qui se basent sur les données issues des délibérations des collectivités. D’autres comme Datapolitics utilisent l’IA pour analyser les débats dans les conseils municipaux et fournissent ainsi aux acteurs tiers des informations portant sur les préoccupations des citoyens et élus. L’outil permet aux acteurs privés d’appréhender des informations avant même la création des appels d’offres.
L’IA offre l’opportunité à davantage de monde de se saisir des données. Des outils de développement comme Copilot réduisent les barrières à l’entrée quant à la création de nouveaux services.
On peut imaginer la création de nouveaux services…
L’IA change également la donne quant au rapport que l’on a à l’ouverture des données et au savoir. La rhétorique des communs, qui suppose que c’est une bonne chose d’avoir des données ouvertes et transparentes, est largement récupérée par les acteurs de l’IA. Or ce ne sont pas forcément les acteurs les plus éthiques et cela pousse les acteurs à se poser la question de ce qui doit être ou non admis. Enfin, l’IA ouvre des opportunités en matière de démocratisation des données : on a évoqué le fait que les données nourrissent l’IA mais l’IA offre également l’opportunité à davantage de monde de se saisir des données. Par exemple, l’usage d’outils de développement comme Copilot réduit les barrières à l’entrée sur le développement de services. On peut citer Opendatasoft qui a publié un outil qui permet de poser une question à un jeu de données et qui répond en donnant une réponse ou une visualisation.
Vous expliquez néanmoins dans votre ouvrage, « Les données de la démocratie – Open data, pouvoirs et contre-pouvoirs » (C&F Editions, février), que la politique d’open data française est fragile, malgré un écosystème très dynamique.
Il est vrai que la France arrive en tête des classements internationaux quant à l’ouverture des données publiques et compte sur un écosystème très dynamique, pour citer par exemple Opendatasoft, Navitia (filiale de Kisio, elle-même filiale de Keolis, un des leaders de la mobilité en Europe), ou encore le travail réalisé par data.gouv.fr. La communauté est solide et on peut saluer le rôle d’Open Data France qui rassemble les collectivités territoriales engagées dans l’ouverture des données au public et les startups d’État. Sur le papier, on pourrait se dire que tout va bien. Dans la réalité, il est toujours difficile d’accéder à certaines données.
On touche là à des problèmes de transparence politique en France. Les fondations de l’open data sont donc instables, car le droit d’accès aux documents administratifs est parfois bafoué. Pourtant, tous les acteurs investis de missions de service public doivent ouvrir leurs données. Par ailleurs, il n’existe pas de routine dans les administrations quant à l’ouverture des données et on retrouve davantage une culture d’aversion à la communication de données que l’on peut qualifier de sensibles. Il faudrait davantage de suivi de la part des acteurs qui ont initié les politiques d’open data.
Faut-il s’inquiéter de la pérennité des politiques d’open data en France ?
Je suis confiant dans l’avenir, car il y a un usage de l’open data qui est massif. Si des services sont amenés à ne plus fonctionner, on risque de se trouver face à une vague de protestation. La crise sanitaire a d’ailleurs marqué un tournant en la matière : en mars 2020, il y avait une vraie difficulté à publier des données et des protestations ont permis de faire émerger des outils comme Covid Tracker. L’open data nourrit des services innovants, et certains sont très connus comme le jeu Pokémon Go qui se base sur les données cartographiques d’OpenStreetMap. On peut également citer les données nutritionnelles qui ont permis à l’application Yuka de s’appuyer sur Open Food Facts, qui est devenu la base de référence sur les données alimentaires et qui a notamment donné naissance au Nutri-Score. De même, quand on achète un bien immobilier, l’accès aux données foncières via des services comme Meilleurs Agents permet de rééquilibrer les informations entre les agents, les acheteurs et les vendeurs. Autre exemple : on peut accéder aux informations portant différences de niveau de vie entre établissements publics et privés grâce à la publication des indices de position sociale. Enfin, des sociétés sont en mesure de fournir des outils de recherche à partir de la jurisprudence comme Doctrine et Prédictice et ce, grâce à l’ouverture des données de justice.