
Les « adversarial examples » sont des données qui sont suggérées aux systèmes d’intelligence artificielle pour les induire en erreur.
Il est ainsi possible de placer un overlay (invisible à l’œil nu) sur la photo d’une personne, avec pour conséquence que la machine identifie cette photo comme l’image d’un tigre, par exemple. Nous voyons la photo d’une personne, tandis que l’ordinateur « voit » un tigre. Ce principe s’apparente à une « illusion d’optique » pour les machines.
Les « adversarial examples » peuvent être imprimés sur du papier ordinaire ou photographiés avec un smartphone sans perdre leur effet trompeur.
Les « adversarial examples » peuvent être dangereux, puisqu’ils sont susceptibles de duper les machines autonomes. Pensez par exemple à une voiture autonome qui interpréterait, de cette manière, un signal routier de façon erronée.
Les chercheurs qui se concentrent sur le machine learning évaluent comment sécuriser et renforcer leurs systèmes d’intelligence artificielle et comment identifier les « adversarial examples ».