Comment rendre l’IA explicable ?
• Vous êtes-vous déjà demandé comment une IA prend ses décisions ? L'enjeu est crucial : permettre aux humains de comprendre le résultat d’un système d’Intelligence Artificielle.
• Les techniques d'IA explicable regroupent des méthodes et des processus destinés à révéler la logique de fonctionnement d'un algorithme, et à fournir des explications claires sur le processus de décision de l'IA à ses utilisateurs.
• Il existe d’ores et déjà une grande diversité de techniques selon le contexte, le public visé et l’impact de l’algorithme. Et c’est sans compter le développement des IA génératives, qui soulève de nouveaux défis en matière de techniques d’explicabilité.
Lire l'article
• Les techniques d'IA explicable regroupent des méthodes et des processus destinés à révéler la logique de fonctionnement d'un algorithme, et à fournir des explications claires sur le processus de décision de l'IA à ses utilisateurs.
• Il existe d’ores et déjà une grande diversité de techniques selon le contexte, le public visé et l’impact de l’algorithme. Et c’est sans compter le développement des IA génératives, qui soulève de nouveaux défis en matière de techniques d’explicabilité.


Explicabilité des systèmes d’intelligence artificielle : quels besoins et quelles limites ?
Lire l'article
Le Conseil éthique de la Data et de l’IA, garant d’une IA responsable chez Orange
Lire l'article
IA : « la séparation entre les développeurs freelances et internes nuit à la culture technologique »
Lire l'article

Machine learning : vers des robots intuitifs et sensibles à leur environnement
Lire l'article