
'Adversarial examples' zijn gegevens die aangeboden worden aan artificiële intelligentie systemen om ze te misleiden.
Zo kan bijvoorbeeld een -voor het menselijk oog onzichtbare- overlay op een foto van een persoon gelegd worden waardoor de machine de foto identificeert als bijvoorbeeld een tijger. Wij zien een foto van een persoon, de computer 'ziet' een tijger. Bekijk het als een optische illusie voor machines.
'Adversarial examples' kunnen geprint worden op normaal papier en gefotografeerd worden met een smartphone, zonder dat het misleidend effect verloren gaat.
'Adversarial examples' kunnen gevaarlijk zijn omdat zij autonome machines kunnen misleiden. Denk bijvoorbeeld aan een zelfrijdende wagen die op die manier een gemanipuleerd verkeersbord verklaard interpreteert.
Onderzoekers die zich bezig houden met machine learning evalueren hoe ze hun Artificial Intelligence systemen veiliger en robuuster kunnen maken en hoe ze 'advertsarial examples' kunnen herkennen.