
L’Explainable Artificial Intelligence (XAI) est une technique qui consiste à expliquer les décisions prises par des systèmes d’intelligence artificielle de manière à les rendre compréhensibles par l’homme.
Ce concept s’oppose à celui de la « boîte noire » en apprentissage automatique : une machine prend des décisions sans que l’utilisateur soit capable de comprendre leur fondement. L’objectif de l’XAI est d’accroître la confiance des utilisateurs dans les décisions prises par les systèmes d’IA, en joignant à ces décisions les explications qui s’imposent. Lorsque les utilisateurs doivent accepter les décisions d’une machine, il importe en effet qu’ils aient confiance dans le système. Un complément d’information et des explications peuvent s’avérer utiles en ce sens.
L’XAI ne fait pas l’unanimité au sein de la communauté IA, car les systèmes d’IA sont aujourd’hui tellement complexes que le processus décisionnel ne peut plus être expliqué en termes humains. L’XAI peut, par ailleurs, exiger un compromis entre l’exactitude et l’intelligibilité d’une solution.