Comment une une voiture autonome parvient-t-elle à décrypter, en temps réel, l’environnement immédiat qui l’entoure et à réagir plus vite qu’un être humain ? Cela est rendu possible grâce à l’Edge AI, une technologie qui rend nos appareils capables de réfléchir par eux-mêmes, directement sur place, sans passer par le cloud. Conceptuellement, l’Edge AI repose sur un principe simple : rapprocher l’entraînement et l’inférence des modèles d’intelligence artificielle au plus près du point de génération de la donnée. C’est l’utilisation de l’IA en combinaison avec l’edge computing, c’est-à-dire, le calcul en périphérie de réseau.
Cette proximité offre de multiples atouts : elle réduit drastiquement la latence, garantit une résilience accrue en environnement dégradé et renforce la confidentialité en conservant les données sensibles sur place.
Au lieu d’acheminer d’énormes flux de données brutes vers des data centers distants, l’intelligence artificielle est entraînée puis déployée sur des dispositifs proches de l’utilisateur final, qu’il s’agisse d’un smartphone, d’un système embarqué automobile ou bien d’un serveur on premise chez un client. Cette proximité offre de multiples atouts : elle réduit drastiquement la latence, garantit une résilience accrue en environnement dégradé, renforce la confidentialité en conservant les données sensibles sur place, et permet des prises de décision en temps réel. Au-delà des bénéfices opérationnels, l’Edge AI a un impact énergétique majeur. Chaque transfert évité vers le cloud limite la sollicitation d’infrastructures gourmandes en énergie. Exécuter l’IA sur des architectures locales optimisées contribue donc à réduire l’empreinte énergétique globale du système tout en maintenant des performances compétitives.
L’inférence réalisée directement dans les terminaux
Pour les voitures autonomes par exemple, un tel système doit analyser simultanément des flux multi-capteurs, détecter des obstacles, classer des objets et calculer une trajectoire, le tout en quelques millisecondes. Ici, le recours au cloud ne répond pas aux exigences de réactivité ni de sécurité. Grâce à l’Edge AI, l’inférence, la capacité d’un modèle à faire des prédictions sur de nouvelles données, est réalisée soit directement au sein du véhicule, soit sur un data center “proche” : latence minimale, intégrité des données préservée, réduction du trafic réseau – et donc, économies d’énergie substantielles.
Pour répondre à ces objectifs, l’Edge AI mobilise un arsenal de techniques issues du machine learning, ajustées à ces nouveaux défis. Parmi elles, le pruning – ou l’élagage – sélectionne, au sein d’un réseau de neurones, les connexions les plus informatives, réduisant ainsi la taille des modèles tout en préservant leur efficacité. Autre méthode largement utilisée : la quantification, qui diminue la précision numérique des paramètres d’un réseau de neurones, permettant d’intégrer des modèles initialement lourds sur des architectures légères et sobres en énergie.