Cycle de vie d’un système d’IA
L’évaluation du cycle de vie (ACV) [7] est une approche systématique visant à évaluer les impacts environnementaux d’un produit ou d’un système tout au long de son cycle de vie [1]. Le cycle de vie d’un système d’IA est similaire au précédent “cycle de vie d’un projet d’exploration de données” [8]. En effet, comme pour l’exploration de données, le cycle de vie de l’IA englobe le processus complet de développement et de déploiement de systèmes d’intelligence artificielle. Il commence par la collecte de données et passe par des étapes telles que le prétraitement des données, l’entraînement des modèles, l’évaluation, le déploiement, ainsi que la surveillance et la maintenance continues.
Une méthode consiste à utiliser l’analyse comparative (benchmark) car elle joue un rôle crucial dans le développement de l’IA frugale en améliorant l’efficacité et l’adaptabilité
En raison du cycle de vie d’un système d’IA, de nombreux coûts empêchent l’IA d’être frugale.
Le tableau ci-dessous présente une liste non exhaustive :
| Exemple de coûts qui devraient être réduits pour viser une IA frugale | |
| (i) | Coûts de développement |
| (ii) | Coûts des données |
| (iii) | Coûts d’infrastructure |
| (iv) | Coûts de formation ou de reconversion |
| (v) | Coût d’inférence |
| (vi) | Coûts de maintenance |
| (vii) | Coûts de mise en conformité |
| (viii) | Coûts de déploiement |
| (ix) | Coûts d’assistance |
Ces coûts peuvent s’accumuler et avoir un impact sur la frugalité globale d’un système d’IA, comme détaillé dans des publications récentes, par exemple [11]. Le coût à payer est l’addition de ces coûts, et certains d’entre eux sont des coûts récurrents qui doivent être payés à chaque utilisation d’un modèle donné, par exemple le coût d’ . Le coût à payer ne se résume pas, comme certaines publications l’ont supposé, aux coûts induits par les trois étapes : entraînement, déploiement et production. Nous encourageons à considérer la somme de tous les coûts du cycle de vie d’un système d’IA et pas seulement une partie d’entre eux. Par exemple, l’ajustement d’un modèle existant ne réduit que l’un des coûts (le coût d’entraînement). Même lorsque le modèle doit uniquement être mis à jour et non remplacé, la frugalité doit être prise en considération et la mise à jour du modèle est une décision d’investissement qui, comme sur les marchés financiers, ne doit être prise que si un certain retour sur investissement est attendu [12].
En résumé, lorsqu’une tâche doit être résolue par l’IA, les coûts totaux doivent être minimisés et le retour sur investissement doit être pris en compte.
Les grands modèles ne sont pas toujours la meilleure option pour une tâche donnée
La tendance récente dans l’IA est l’utilisation de grands modèles (IA générative, grands réseaux neuronaux profonds, etc.). Bon nombre des tâches qui pourraient être effectuées avec l’IA ( , , etc.) ne sont actuellement pas résolues de façon frugale par de grands modèles.
Par conséquent, il faut garder à l’esprit que le principe “vieux modèles/pas de grands modèles” reste assez intéressant en matière de performances, notamment sur des données tabulaires ou des séries temporelles, comme illustré ci-dessous sur l’analyse émotionnelle. Note : On entend ici omme exemples du principe “pas de grands modèles” : la Régression linéaire, les k plus proches voisins, Arbre de décision [4], Catboost [10], Khiops [2], etc., ou même le traitement du signal pour les séries chronologiques (p. ex., le lissage exponentiel, Arima, etc. [3]).
Trouver le bon point d’inflexion entre performances et frugalité
Trouver le bon point d’inflexion entre les indicateurs de performance et de frugalité dans les modèles d’IA est essentiel pour maximiser l’efficacité, l’accessibilité et les considérations éthiques, tout en atteignant des niveaux de performances satisfaisants. Équilibrer ces facteurs peut conduire à des solutions d’IA plus durables et plus impactantes. Outre les avantages en matière de simplification, il existe de nombreux arguments en faveur de la recherche du bon point d’équilibre[3], les plus évidents étant l’amélioration des points suivants :
- Efficacité des ressources :
- Réduction des coûts : les modèles économes en énergie nécessitent moins de puissance de calcul et de mémoire, ce qui réduit les coûts d’exploitation.
- Impact sur l’environnement : réduire la consommation de ressources peut réduire l’empreinte carbone associée à l’entraînement et au déploiement de modèles d’IA.
- Évolutivité :
- Accessibilité étendue : des modèles plus efficaces peuvent être déployés dans des environnements à ressources limitées, rendant l’IA accessible à un public plus large.
- Accélération du déploiement : des modèles plus efficaces peuvent être entraînés et déployés plus rapidement, ce qui permet une itération et une adaptation rapides.
- Optimisation des performances :
- Rendements décroissants : à un certain point, l’augmentation de la complexité du modèle produit des gains de performances minimes. L’identification du point d’équilibrepermet d’éviter toute complexité inutile.
- Robustesse : les modèles plus simples s’appliquent parfois mieux à des données encore non vues (test ou déploiement), réduisant ainsi le risque de surajustement (apprentissage des particularités des données d’entraînement qui ne seront pas présentes lors de l’utilisation ultérieure du modèle sur les données de test ou de déploiement)
- Expérience utilisateur :
- Réduction de la latence : les modèles frugaux entraînent souvent des temps d’inférence plus courts, améliorant ainsi l’expérience utilisateur dans les applications en temps réel.
- Facilité d’intégration : les modèles moins complexes peuvent être intégrés plus facilement dans les systèmes et flux de travail existants.
- Aspects éthiques :
- Équité et transparence : des modèles plus simples peuvent être plus interprétables, facilitant la compréhension des décisions prises par les systèmes d’IA et favorisant l’équité.
- Atténuation des biais : les modèles frugaux peuvent réduire le risque d’incorporation de biais pouvant résulter d’architectures trop complexes.
- Créativité issue d’un modèle frugal d’innovation et d’expérimentation : mettre l’accent sur la frugalité peut inspirer des approches novatrices de résolution de problèmes, conduisant à de nouvelles solutions ne reposant pas sur des ressources informatiques considérables.
Cette liste n’est bien sûr pas exhaustive et nous pouvons ajouter des coûts qui sont parfois “cachés”, comme l’augmentation des compétences des équipes, l’intégration d’un expert supplémentaire en sciences des données dans l’équipe de projet, etc.).
Pour trouver ce compromis, il est possible d’utiliser l’analyse comparative (ou benchmark) [6], qui joue un rôle crucial dans le développement de l’IA frugale en améliorant l’efficacité et l’adaptabilité.
Les résultats d’une analyse comparative, de benchmarks, des méthodes d’IA aident à développer une IA plus frugale de plusieurs façons. Tout d’abord, il est possible d’identifier des méthodes efficaces, puisque les analyses comparatives permettent de comparer les performances des différentes méthodes d’IA, en mettant en évidence celles qui offrent le meilleur rapport qualité-prix en matière d’utilisation de ressources. Deuxièmement, il est possible d’optimiser les ressources : grâce à l’analyse des résultats, les chercheurs (c’est-à-dire les utilisateurs) peuvent identifier des algorithmes qui nécessitent moins de données ou de puissance de calcul, privilégiant ainsi des solutions plus légères. Elles fournissent également un cadre cohérent pour évaluer les modèles d’IA, assurant la comparabilité entre les différentes approches (normalisation). Elles aident à identifier les algorithmes les plus efficaces pour des tâches spécifiques, guidant l’allocation des ressources (indicateurs de performances). Elles encouragent le partage des meilleures pratiques et des ensembles de données, favorisant l’innovation dans les solutions frugales d’IA (collaboration communautaire).
L’objectif des résultats de benchmarks n’est pas de comparer systématiquement les solutions (en répétant de nombreuses expériences), mais de construire un ensemble de compétences qui permettront de faire une sélection appropriée. La question est donc “comment les entreprises qui n’ont pas d’experts en sciences des données peuvent-elles accumuler ces connaissances” (ou les entreprises qui ont des experts en sciences des données qualifiés mais qui sont surchargés de travail et ne peuvent donc pas répondre à toutes les demandes, etc.).
Illustration des différents compromis possibles
Pour autant que nous sachions, il n’existe pas de méthode universelle pour trouver le bon point d’équilibre. Modestement, cependant, nous pouvons en mentionner une qui a du sens au début d’un projet de science des données :
(i) définir le critère de performances du projet ;
(ii) définir la valeur de ce critère (peut-être sous la forme d’un retour sur investissement) ;
(iii) utiliser une règle, une IA, etc., qui est simple au départ et, si la valeur du critère n’est pas atteinte, rendre l’IA plus complexe ;
(iv) arrêter dès que la valeur du critère est atteinte ou lorsque la somme des coûts devient trop importante (ou si le retour sur investissement ne peut être atteint, ou encore si le coût de sa réalisation est trop élevé).

Figure 1 : Illustration des différents compromis entre performances et coûts
Ceci est illustré à la Figure 1 ci-dessus : Dans le cas illustré en violet, si le retour sur investissement en matière de performances est atteint avec P1, il n’y a aucune raison de rendre le modèle IA plus complexe et de payer des coûts supplémentaires. Dans le cas illustré en vert, les mêmes performances peuvent être obtenues pour deux coûts différents. Il est donc très intéressant de commencer par utiliser un modèle d’IA produisant le coût C1 puis de s’arrêter. Le pire des cas est celui où l’utilisation d’un modèle d’IA produit un coût global plus élevé avec des performances moindres (non illustrée dans la figure).
Ce dernier scénario est bien présenté en [9]. Dans ce rapport, une tâche de classification est conçue sur du texte (analyse émotionnelle) à l’aide d’un Séparateur à Vaste Marge (SVM) [5] ou de trois grands modèles de langue (LLM) (BERT ré-ajusté sur le problème à résoudre, Llamma et BERT promptés pour résoudre le problème). Pour cette tâche de classification donnée, nous pouvons observer que, pour l’inférence, les plus grandes consommations d’énergie, les LLM, sont de plusieurs ordres de grandeur supérieures à un SVM standard pour une précision comparable (ou inférieure).
Sources :
[1] K. E. Bassey, A. R. Juliet et A. O. Stephen. AI enhanced lifecycle assessment of renewable energy systems. Engineering Science & Technology Journal, 2024.
[2] M. Boullé. Khiops : outil d’apprentissage supervisé automatique pour la fouille de grandes bases de données multi-tables. Revue des Nouvelles Technologies de l’Information, Extraction et Gestion des Connaissances, RNTI-E-30:505–510, 2016. www.khiops.org.
[3] G. Box et G. M. Jenkins. “Time Series Analysis: Forecasting and Control”. Holden-Day, 1976.
[4] L. Breiman. “Random forests”. Machine Learning, 45(1):5–32, 2001.
[5] C. Cortes et V. Vapnik. “Support vector networks”. Machine Learning, 20:273–297, 1995.
[6] R. Dattakumar et R. Jagadeesh. “A review of literature on benchmarking.” Benchmarking: An International Journal, 10(3):176–209, 2003.
[7] W. Klöpffer et B. Grahl. “Life cycle assessment (LCA): a guide to best practice”. John Wiley & Sons, 2014.
[8] V. Lemaire, F. Clérot, N. Voisine, C. Hue, F. Fessant, R. Trinquart et F. Olmos Marchan. “The data mining process: a (not so) short introduction”, 2017.
https://www.researchgate.net/publication/313528093_The_Data_Mining_Process_a_not_so_ short_introduction.
[9] N. E. Mbengue. Étude comparative de l’empreinte carbone de modèles de machine learning appliqués au traitement automatique de la langue (tal). Mémoire de maîtrise, TELECOM Nancy, 2024.
[10] L. O. Prokhorenkova, G. Gusev, A. Vorobev, A. V. Dorogush et A. Gulin. Catboost: unbiased boosting with categorical features. In S. Bengio, H. M. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett, editors, NeurIPS, pages 6639–6649, 2018.
[11] B. Xia, Q. Lu, L. Zhu et Z. Xing. An ai system evaluation framework for advancing ai safety: Terminology, taxonomy, lifecycle mapping. In Proceedings of the 1st ACM International Conference on AI-Powered Software, New York, NY, USA, 2024. Association for Computing Machinery.
[12] I. Zliobaite, M. Budka et F. Stahl. Towards cost sensitive adaptation: When is it worth updating your predictive model? Neurocomputing, 150:240–249, 2015. Bioinspired and knowledge-based techniques and applications The Vitality of Pattern Recognition and Image Analysis Data Stream Classification and Big Data Analytics
En savoir plus :
Processus d’utilisation d’un modèle entraîné pour faire des prédictions ou des décisions basées sur de nouvelles données inédites. Cela implique l’application des modèles et des connaissances apprises de la phase d’entraînement pour interpréter les données d’entrée et générer des sorties telles que des classifications, des prédictions ou des recommandations.
Type de tâche d’apprentissage supervisé dont l’objectif est de catégoriser les données d’entrée en classes ou libellés prédéfinis. Le modèle apprend à partir d’exemples libellés pendant l’entraînement, puis attribue des libellés à de nouvelles données inédites en fonction des modèles appris. Les exemples incluent la détection de spam dans les e-mails, la reconnaissance d’image et l’analyse émotionnelle.
Type de tâche d’apprentissage supervisé où l’objectif est de prédire une sortie continue ou une valeur numérique basée sur des données d’entrée. Le modèle apprend à partir d’exemples libellés pendant l’entraînement, puis estime les valeurs des nouvelles données. Les exemples incluent la prévision des prix de l’immobilier, les tendances boursières ou les prévisions de température.






