RSE

Plus petits, plus experts : les nouveaux défis des modèles de langage

● Les SLM (small language models) sont moins gourmands en ressources que des LLMs grand public engagés dans une course au gigantisme.
● Mixture of Experts (MOE), fusion de modèles ou Retrieval augmented generation (RAG) sont certaines des techniques employées pour rendre l’IA suffisamment compacte pour permettre leur déploiement sur smartphone ou en edge computing.
● Les modèles plus petits ne sont cependant pas épargnés par le classique effet rebond énergétique et ils disposent de capacités plus limitées.
Lire l'article

Planification urbaine : comment nos smartphones redessinent la ville de demain

Lire l'article
Technicien équipé d’un casque de sécurité installant et connectant des câbles sur un équipement télécom en hauteur.

Orange réduit les émissions de la partie radio de son réseau mobile avec le concours de ses fournisseurs

Lire l'article

L’empreinte environnementale de l’IA : comprendre, mesurer et agir

Lire l'article

Une méthodologie sur mesure pour « activer » des modèles d’affaires durables

Lire l'article

L’engagement client à l’ère du numérique : les leviers pour l’activer et l’ancrer

Lire l'article

Croissance de l’IA et production électrique mondiale : incompatibles ?

Lire l'article