Plus petits, plus experts : les nouveaux défis des modèles de langage
● Les SLM (small language models) sont moins gourmands en ressources que des LLMs grand public engagés dans une course au gigantisme.
● Mixture of Experts (MOE), fusion de modèles ou Retrieval augmented generation (RAG) sont certaines des techniques employées pour rendre l’IA suffisamment compacte pour permettre leur déploiement sur smartphone ou en edge computing.
● Les modèles plus petits ne sont cependant pas épargnés par le classique effet rebond énergétique et ils disposent de capacités plus limitées.
Lire l'article
● Mixture of Experts (MOE), fusion de modèles ou Retrieval augmented generation (RAG) sont certaines des techniques employées pour rendre l’IA suffisamment compacte pour permettre leur déploiement sur smartphone ou en edge computing.
● Les modèles plus petits ne sont cependant pas épargnés par le classique effet rebond énergétique et ils disposent de capacités plus limitées.
Planification urbaine : comment nos smartphones redessinent la ville de demain
Lire l'article
Orange réduit les émissions de la partie radio de son réseau mobile avec le concours de ses fournisseurs
Lire l'article
L’empreinte environnementale de l’IA : comprendre, mesurer et agir
Lire l'article
Une méthodologie sur mesure pour « activer » des modèles d’affaires durables
Lire l'article
L’engagement client à l’ère du numérique : les leviers pour l’activer et l’ancrer
Lire l'article