Qu’est-ce que Llama et en quoi est-il différent des autres outils d’IA générative ?
Llama appartient à la classe de Meta : une nouvelle technologie pouvant comprendre et générer du langage. Ces types d’outils ont pris l’IA d’assaut et sont très utiles dans diverses applications notamment les chatbots, la collecte d’informations, la synthèse de texte, l’écriture de code et ainsi de suite. Llama se démarque par son modèle open source : il donne accès au code source, ce qui permet à la communauté de modifier la technologie pour ses propres besoins. Nous avons publié un ensemble de modèles de différentes tailles et répondant à différents besoins. Fondamentalement, plus le modèle est grand, plus ses réponses sont précises. À l’opposé, plus le modèle est petit, moins son déploiement est coûteux. Tous étant open source, la majorité des utilisateurs peuvent y accéder gratuitement, les adapter à leur propre infrastructure et les utiliser avec leurs propres données.
En laissant la communauté converger vers l’outil pour l’améliorer, nous pouvons progresser et l’optimiser en continu.
Certains craignent que l’open source fasse courir le risque que l’IA tombe entre de mauvaises mains. Pourquoi estimez-vous qu’il s’agisse d’une approche responsable ?
La sécurité est fondamentale pour nous. À chaque version, notre rôle est de comprendre quelles sont les considérations en termes de responsabilité. Quelles sont les attentes de la société ? Quels sont les risques ? Nous avons récemment publié Purple Llama, qui comprend un ensemble d’outils pour aider les développeurs à mettre en œuvre ces applications de manière sûre et responsable. Contrairement à d’autres systèmes d’IA qui sont des modèles propriétaires étroitement protégés, Llama fait partie d’un écosystème. Cela permet aux utilisateurs du monde entier d’améliorer la technologie et de contribuer à la rendre plus sûre, notamment dans des domaines clés : cybersécurité, confidentialité des données, sécurité du contenu, transparence du contenu de l’IA pour que les utilisateurs puissent l’identifier, etc. Une approche ouverte peut converger plus rapidement sur les normes et de manière plus démocratisée. En Europe et dans le reste du monde, on admet de plus en plus que cette technologie devrait être distribuée plutôt que centralisée, et que ses valeurs devraient être déterminées par une large contribution plutôt que par un pays ou une entreprise spécifique.
Qui est impliqué dans l’écosystème Llama ?
Des chercheurs, universitaires, leaders du secteur, start-ups, organisations à but non lucratif, développeurs, enseignants, concepteurs d’apprentissage, pour n’en nommer que quelques-uns. Jusqu’à présent, nous avons compté de 100 millions de téléchargements. Ce succès a dépassé nos prévisions les plus optimistes, et la démocratisation de cette technologie a suscité beaucoup d’enthousiasme de la part de la communauté. C’est cette notion d’ouverture qui amplifie l’innovation, la rendant plus susceptible de trouver des cas d’utilisation inattendus. À mesure que nous obtenons des boucles de rétroaction plus rapides, le développement s’accélère. En laissant la communauté converger vers l’outil pour l’améliorer, nous pouvons l’optimiser en continu. Dans ce cadre, citons l’ , une communauté internationale réunissant les principaux développeurs de technologies, universités, instituts de recherche et autres collaborateurs pour faire progresser une IA ouverte, sûre et responsable. Nous sommes persuadés que l’innovation ouverte peut conduire à des technologies qui apportent plus d’avantages aux utilisateurs.
Comment s’effectue la collaboration entre Meta et Orange ?
Nous nous appuyons sur une longue histoire de partenariat pour divers projets mobiles et Internet. Dès le début, Orange a démontré une grande sophistication dans l’approche de l’IA et a vraiment voulu l’embrasser, tant pour le bénéfice de ses clients qu’en interne pour optimiser ses opérations. Orange utilise Llama 2 pour différents cas d’utilisation : améliorer le service client, favoriser le développement logiciel, soutenir la formation, etc. Il est très utile d’utiliser Orange comme partenaire pour fournir des commentaires sur les performances des outils. Il s’agit également d’une grande entreprise présente sur les marchés émergents comme l’Afrique. Il est donc très utile d’être exposé à des cas d’utilisation en dehors du monde occidental. Le fait de faire tester ces différents modèles par Orange permet d’obtenir des informations vitales. Celles-ci sont alors transmises à la communauté pour améliorer les performances et le déploiement responsable de cette technologie.
Comment l’IA devrait-elle être réglementée ?
Nous n’en sommes encore qu’au début, mais des législations commencent à voir le jour. L’IA est déjà réglementée par le RGPD, la FCRA, l’article 5 et les lois sur les droits civiques. Nous encourageons une approche réglementaire de l’IA qui ne crée pas de multitudes de conflits législatifs et qui est axée sur les utilisations finales à haut risque. Nous devons continuellement évaluer la situation à mesure que ces outils gagnent en puissance et que nous examinons leurs modes d’utilisation. La technologie est tellement nouvelle que toutes les implications ne sont pas encore bien comprises. La situation évolue encore rapidement. Notons toutefois un point positif : les décideurs politiques s’engagent de manière proactive et essaient de comprendre comment gérer les risques pour s’assurer que la technologie est bénéfique pour la société. En fin de compte, la réglementation est la conséquence des attentes de la société. Elle est donc essentielle pour nous aider à développer une IA qui en tienne compte.
En savoir plus :
Loi sur l’intelligence artificielle de l’UE
Provisoirement approuvée le 8 décembre 2023, il s’agit d’un cadre juridique pour le développement, la commercialisation et l’utilisation de l’IA dans l’Union européenne. Il s’agit d’une première mondiale (https://artificialintelligenceact.eu/the-act/). En juillet 2023, la Maison-Blanche américaine a convoqué les principaux développeurs de l’IA pour signer un engagement à promouvoir le développement de l’IA en toute sécurité, avec un plan pour une déclaration des droits de l’IA.
Large Language Model : algorithme d’IA qui utilise des techniques de Deep Learning pour générer du texte en prédisant de manière répétée le mot suivant en réponse à une invite. Ces modèles sont entraînés avec des quantités massives de données. Ce type de modèle alimente des outils tels que l’assistant et les personnages IA de Meta : ChatGPT d’OpenAI et Bard de Google.
Initiative lancée par IBM et Meta le 5 décembre 2023 en collaboration avec plus de 50 entreprises majeures du secteur, du monde universitaire, de la recherche et du gouvernement, notamment AMD, CERN, Cleveland Clinic, Dell technologies, Imperial College London, Intel, INSAIT, Linux Foundation, MLCommons, MOC Alliance, la NASA, NSF, Oracle, Partnership on IA, University of California Berkeley et Yale University. L’AI Alliance vise à développer une communauté ouverte pour accélérer l’innovation responsable dans l’IA, tout en garantissant rigueur scientifique, confiance, sûreté, sécurité, diversité et compétitivité économique.