● En prenant l’exemple d’un outil conçu par des développeurs indépendants, CNIL GPT, il illustre les limites de l’IA en termes de compréhension du droit et de son contexte.
● Il précise par ailleurs que ChatGPT est loin d’être en mesure de proposer des réponses juridiques pertinentes, mais reste intéressant pour relire du code… informatique.
On entend que l’IA va bouleverser voire détruire certaines professions juridiques. Qu’en pensez-vous ?
Pierre Desmarais. Les professions juridiques ne sont pas les mêmes aux États-Unis et en France quand on parle des assistants ou des métiers du paralégal. Aux États-Unis, les procédures de « » nécessitent de demander à une partie tous les éléments d’information pertinents pour résoudre un litige. C’est souvent le cas dans les litiges de propriété intellectuelle, et les cabinets se trouvent confrontés à des montagnes de dossiers à analyser. Les outils d’intelligence artificielle peuvent donc jouer un rôle. En France, les formalistes vont davantage faire les formalités administratives, les appels d’offres, etc. Donc oui, l’IA va bousculer les professions juridiques, mais je pense que ce sera davantage une évolution. Dans tous les cas, il faut une compétence de base : l’outil ne peut pas tout faire.
Quelles sont les limites de l’IA appliquée au droit ?
En France, des développeurs indépendants ont par exemple développé CNIL GPT [rebaptisé DPO GPT, NDLR]. C’est un outil qui permet de poser des questions à la base de données de la . Il y a plusieurs limites, à commencer par le fait que l’outil ne prend en compte que ce qu’il y a en base de données et non le droit souple, comme ce qui est publié sur le blog de la CNIL. Ensuite, il faut distinguer ce qu’un texte dit et son interprétation. Si par exemple je mémorise une liste entière de coordonnées, CNIL GPT va dire que je réalise un traitement de données, car par définition, le texte évoque « toute opération sur des données ». Cependant on ne peut pas demander une déclaration de conformité à votre cerveau. Enfin, l’IA se base sur de l’existant : et en matière juridique et médicale, on ne peut se contenter de l’existant dans la mesure où dans la réalité, on peut par exemple assister à des revirements de jurisprudence, ce que l’IA ne peut envisager. En d’autres termes, sur les sciences humaines, l’IA est un frein à l’innovation.
Que pensez-vous des outils existants ?
Je n’ai pas testé les outils français d’IA juridique, car je ne souhaite pas mettre mes dossiers sur Internet, pour la simple raison que je n’ai pas de garantie de temps de rétablissement si jamais il y a un bug. Ce que je connais des offres proposées pour l’heure par des éditeurs comme LexisNexis, ce sont des modules pour analyser la validité des conclusions ou des jurisprudences. Ils font des requêtes à partir de références jurisprudentielles et textuelles pour voir l’évolution du droit et apporter des précisions. C’est de la requête automatisée, mais ce n’est pas de l’IA générative.
Et de ChatGPT ?
J’ai essayé ChatGPT pour faire du droit, mais cela ne fonctionne pas, déjà parce que l’outil est entraîné sur des données qui ne sont pas exclusivement françaises et qui proviennent de systèmes juridiques différents. Par exemple, si on demande à ChatGPT si on a besoin d’une carte d’identité pour acheter un nom de domaine en Espagne, il répond que oui. Si on lui demande des sources, il n’est pas capable d’en citer. À titre professionnel, j’utilise ChatGPT pour faire relire mon code informatique quand je développe un programme. Et j’utilise des outils de génération d’images comme Midjourney et Stable Diffusion pour illustrer les posts juridiques que je publie sur LinkedIn.