Comment rendre l’IA explicable ?
• Vous êtes-vous déjà demandé comment une IA prend ses décisions ? L'enjeu est crucial : permettre aux humains de comprendre le résultat d’un système d’Intelligence Artificielle.
• Les techniques d'IA explicable regroupent des méthodes et des processus destinés à révéler la logique de fonctionnement d'un algorithme, et à fournir des explications claires sur le processus de décision de l'IA à ses utilisateurs.
• Il existe d’ores et déjà une grande diversité de techniques selon le contexte, le public visé et l’impact de l’algorithme. Et c’est sans compter le développement des IA génératives, qui soulève de nouveaux défis en matière de techniques d’explicabilité.
Lire l'article
• Les techniques d'IA explicable regroupent des méthodes et des processus destinés à révéler la logique de fonctionnement d'un algorithme, et à fournir des explications claires sur le processus de décision de l'IA à ses utilisateurs.
• Il existe d’ores et déjà une grande diversité de techniques selon le contexte, le public visé et l’impact de l’algorithme. Et c’est sans compter le développement des IA génératives, qui soulève de nouveaux défis en matière de techniques d’explicabilité.


Explicabilité des systèmes d’intelligence artificielle : quels besoins et quelles limites ?
Lire l'article

Transfert d’énergie sans fil : l’ERWPT mise sur les champs électriques
Lire l'article
Crowdsourcing : du suivi animalier à l’étude spatiale, les smartphones facilitent la recherche
Lire l'article
Machine learning : vers des robots intuitifs et sensibles à leur environnement
Lire l'article