• Ce défi, posé par la compétition de l’IEEE Power & Energy Society, a été relevé par Wided Hammedi, ingénieure chercheuse au sein d’Orange. Son modèle de prédiction a remporté en 2023 le deuxième prix de ce concours international.
Avant le concours, il y a l’équipe Extreme Edge Computing d’Orange, qui travaille sur les environnements informatiques restreints – parfois plus petits que la plus petite carte Arduino. Docteure en informatique, spécialisée en intelligence artificielle et en edge computing, Wided Hammedi rejoint l’équipe en 2022. Ses travaux portent alors sur le Computing Cube, un nano-ordinateur alimenté à 100% en énergie renouvelable et doté de multiples capteurs. L’ingénieure chercheuse développe notamment un algorithme pour prédire la quantité d’énergie solaire stockée dans le Cube sans avoir à solliciter l’électronique de la machine, une action très consommatrice en énergie, et donc contreproductive. Son modèle de prédiction parvient à atteindre une précision de quelques milliwatts. Suivent pour elle le dépôt de brevet de l’algorithme et la démonstration avec les cubes au Salon de la Recherche d’Orange en 2022, puis la participation à Orlando (Floride) à la compétition organisée par la IEEE Power & Energy Society (Institute of Electrical and Electronics Engineers).
Si on est capable de trouver une solution performante et rapide dans des conditions extrêmement contraignantes, elle sera encore plus performante à grande échelle.
Une différence de taille
L’exercice consiste à prédire l’énergie solaire produite sur une semaine, à partir de données recueillies au cours des trois années précédentes : production d’énergie, température, humidité, etc. Wided Hammedi raconte : « Tandis que le Cube traite une fenêtre de prévision d’une trentaine de minutes à partir des données qu’il génère, il fallait pour le concours rationaliser d’énormes volumes de données sur une semaine. Mais cela présentait aussi un avantage : quand on sort du contexte restreint de l’edge computing pour aller vers des environnements de type cloud, on accède à des machines sans contraintes de mémoire et de performance. Il devient possible d’utiliser des modèles de deep learning plus grands, plus gourmands en ressource. De plus, si on est capable de trouver une solution performante et rapide dans des conditions extrêmement contraignantes, elle sera encore plus performante à grande échelle. En ce sens, l’expérience du Computing Cube m’a permis d’avoir une bonne idée globale de ce que je voulais faire. »
Opération nettoyage
Avant de pouvoir élaborer un modèle, la première étape est d’analyser la base de données. La chercheuse y décèle rapidement des anomalies : précipitations négatives, quantités de radiations solaires propres à griller n’importe quel appareil… Il s’agit de comprendre d’où viennent ces données aberrantes, de parvenir à les identifier même lorsqu’elles ne sont pas évidentes, puis de les corriger. « Les erreurs peuvent être dues à une panne du système de mesure, à une coupure de connexion, et c’est tout à fait normal : dans la réalité, on ne peut pas avoir des données parfaites. Il faut donc passer par cette phase de nettoyage. On doit aussi composer avec des informations manquantes. Ici, l’emplacement géographique ou les saisons auraient été utiles. Heureusement, j’ai pu déduire certaines choses, comme l’heure : s’il y a zéro radiation solaire, c’est que c’est la nuit ! » Avec une étude de corrélation, la chercheuse identifie ensuite les données qui ont réellement un impact sur la production d’énergie, et qui sont donc pertinentes pour alimenter le modèle de prédiction.
La meilleure configuration
La chercheuse retient finalement quatre valeurs : la température, la vitesse du vent, l’humidité, les radiations, qui sont converties en données d’apprentissage. Reste à faire tourner le modèle, tester sa performance en comparant les valeurs prédites avec les valeurs données, ajuster les paramètres jusqu’à arriver à une configuration satisfaisante. Pour ce concours, le résultat final est un mélange de plusieurs couches issues de différents algorithmes de deep learning, , DENSE et couche entièrement connectée (fully connected layer). C’est notamment la précision de son modèle qui vaut à Wided Hammedi la 2e place du podium au concours de la IEEE Power & Energy Society. « Il faut quand même garder à l’esprit que les capacités prédictives d’un modèle dépendent des données qui le nourrissent et que, à ce jour, il n’est pas possible d’avoir des prévisions météorologiques fiables à une semaine. Cependant, ce prix est une belle valorisation de ce qu’on fait chez Orange en matière de recherche. Si on peut trouver notre place dans un concours international pointu sur l’énergie, cela confirme qu’on fait bien les choses. »
Le LSTM est un algorithme utilisé habituellement pour la prévision de séries temporelles, une approche du deep learning qui cherche à réaliser des prédictions futures en se basant sur l’analyse des données passées.