● Une étude menée par Noam Schmitt et Marc Lacoste identifie trois approches. La première suppose de laisser les systèmes sur terre, la seconde dans l’espace et la troisième est hybride.
● Moins de données sensibles sont transmises entre la terre et l’espace, moins les systèmes sont exposés aux risques d’interception ou de falsification.
L’essor des mégaconstellations de satellites et l’avènement du cloud computing spatial interrogent la sécurité des systèmes dans un contexte où les menaces sont de plus en plus sophistiquées : brouillage des communications, écoute clandestine, usurpation de signaux ou encore attaques par déni de service sont les nouveaux risques auxquels font face les acteurs orbitaux. L’intelligence artificielle (IA) pourrait toutefois automatiser la détection et la réponse aux incidents. Marc Lacoste, senior expert chez Orange Innovation souligne : « Dans ce nouveau domaine qu’on appelle la Space AI Security, la grande interrogation, c’est de savoir quelle est la bonne architecture d’IA à adopter. Faut-il tout centraliser sur Terre ou, au contraire décentraliser une partie, voire la totalité, des traitements dans l’espace ? » Cette problématique est au cœur des travaux menés par Orange en collaboration avec Noam Schmitt (ENS Paris Saclay).
Trois architectures possibles
L’étude menée par Noam Schmitt et Marc Lacoste identifie trois approches. La première propose une architecture centralisée qui repose sur un modèle d’IA unique hébergé dans des stations terrestres. « Dans ce cas, on envoie toutes les données télémétriques des satellites vers la Terre, où un grand modèle – un peu comme un digital twin (jumeau numérique) du système spatial – analyse les menaces et envoie les contre-mesures. » L’avantage est de pouvoir bénéficier de la puissance de calcul disponible au sol, sans les contraintes matérielles des satellites. « Le problème, c’est la latence. Le temps de transmission entre l’espace et la Terre est un frein majeur, surtout pour des réactions en temps réel. » Sans compter les risques liés à la transmission des données, qui manque parfois de protection.
La deuxième option est celle d’une architecture distribuée : « Ici, on fait une partie du traitement sur Terre et une autre dans l’espace. L’entraînement du modèle reste centralisé, mais l’inférence se fait à bord des satellites. » Cette approche réduit la latence, « mais on garde quand même un temps de transit inévitable ». L’idée est de disposer d’une sécurité renforcée contre certaines attaques, comme le fait de disposer d’un point de défaillance ou de vulnérabilité unique. « Cette solution est plus robuste que la centralisation pure, mais reste limitée par les contraintes embarquées », nuance Marc Lacoste.
Enfin, l’architecture fédérée pousse la décentralisation à son paroxysme. « Tout se passe dans l’espace : l’entraînement, l’inférence, les mises à jour. On ne transmet que les gradients, pas les données brutes, ce qui améliore considérablement la sécurité », souligne Marc Lacoste. Cette autonomie a un prix : « Les modèles embarqués sont moins puissants et leur convergence peut être difficile à garantir, surtout pour des constellations de plusieurs centaines de satellites. »
Des compromis entre précision et réactivité
Les résultats expérimentaux qui ont été obtenus à partir de simulations confirment ces observations. « En centralisé, on atteint plus vite une précision élevée, car on dispose de toute la puissance de calcul nécessaire. En fédéré, même si l’entraînement est plus lent, la latence d’inférence est moindre. » Les chiffres parlent d’eux-mêmes : pour un seul satellite, la latence moyenne en centralisé atteint 125,64 millisecondes, contre seulement 23,75 millisecondes en fédéré. « Cette différence devient cruciale quand on passe à l’échelle, avec des centaines de satellites. » Pourtant, la centralisation reste aujourd’hui la solution privilégiée par les opérateurs. « À court terme, c’est la meilleure option, car elle permet un entraînement rapide et précis mais, à long terme, avec l’amélioration des liaisons intersatellitaires, le fédéré pourrait s’imposer. Moins l’on transmet de données sensibles, moins on expose le système aux risques d’interception ou de falsification. » Les résultats de cette étude ont fait l’objet d’une communication scientifique acceptée à la conférence IEEE HPEC (High-Performance Extreme Computing Virtual Conference) et présentée par Noam Schmitt. Il s’agit d’une conférence de référence sur le calcul haute-performance organisée par le prestigieux MIT Lincoln Laboratory Supercomputing Center.
Orange, un acteur engagé dans la sécurité spatiale
« Orange a une longue histoire dans le spatial, depuis les années CNET jusqu’aux partenariats actuels avec le CNES », rappelle Marc Lacoste. « Aujourd’hui, avec la montée en puissance des constellations et la concurrence internationale, il est stratégique pour Orange de maîtriser ces enjeux. L’objectif est de définir les meilleurs services et modes de déploiement pour sécuriser les futures infrastructures, que ce soit pour nos propres besoins ou pour nos partenaires. »







