Wat is Explainable AI?

AI.jpg

Explainable Artificial Intelligence (XAI) is een techniek waarbij de beslissingen die genomen worden door AI systemen, uitgelegd worden zodanig dat ze voor mensen verstaanbaar zijn.

Dit staat in contrast tot het ‘zwarte-doos-concept’ in machine learning, waarbij een machine beslissingen neemt zonder dat mensen nog kunnen begrijpen waarop de beslissing juist gebaseerd is. Het objectief van XAI is gebruikers meer vertrouwen geven in de beslissingen die AI systemen nemen door de beslissing te omkaderen met de nodige uitleg. Indien mensen beslissingen van machines moeten accepteren, dan is het immers belangrijk dat ze vertrouwen hebben in het systeem. Extra achtergrond en uitleg kan daarbij helpen.

Niet iedereen binnen de AI gemeenschap is overtuigd van XAI omdat AI systemen nu eenmaal zo ingewikkeld zijn waardoor het beslissingsproces niet meer te verklaren is in menselijke termen. Anderzijds kan XAI vereisen dat er een afweging wordt gemaakt tussen de nauwkeurigheid en de verklaarbaarheid van een oplossing.