
L’automatisation ainsi que l’utilisation et l’importance croissantes des algorithmes, de l’IA et de l’apprentissage machine induisent un risque sur le plan de l’inclusion, de la diversité ethnique et de genre et de l’intégration sociale dans les entreprises et la société. Il en résulte donc aussi un risque d’atteinte à l’image ou à la marque, que beaucoup d’annonceurs évaluent souvent mal.
Tant le public que la société en général sont devenus, ces dernières années, plus conscients des sensibilités et des préjugés ethniques, culturels et liés au genre. À juste titre. Au cours des dernières décennies, des entreprises, marques et annonceurs de premier plan ont adopté des positions de plus en plus claires et inclusives à cet égard. Les préjugés latents jouent toutefois inconsciemment un rôle crucial et décisif plus souvent qu’on l’imagine.
De nombreux processus sont en voie d’automatisation. En Belgique, le programmatic buying couvre un peu plus de 50 % de la publicité digitale et d’autres médias se sont déjà livrés à des expériences en la matière. Afin d’améliorer l’expérience client, les marques et les entreprises travaillent de plus en plus avec des chatbots et des assistants virtuels. Les plateformes de commerce électronique se fondent sur le profilage. En matière de recrutement et de sélection, le premier screening des candidats s’effectue de plus en plus souvent par le biais de systèmes automatisés intelligents. Les banques et les compagnies d’assurance ont recours à des ensembles de données pour évaluer les risques, les primes et les taux. Les « wearables » suivent de près notre santé et signalent tout risque de maladie. Même la recherche de nouveaux vaccins et médicaments fait appel à la modélisation et aux simulations moléculaires.
Dans un contexte où les entreprises, les gouvernements et les organisations s’appuient de plus en plus sur les algorithmes et l’IA pour prendre des décisions élémentaires et décisives, il est vital que nous prenions en compte les effets sociaux potentiels de l’intelligence artificielle ou de l’apprentissage machine. D’innombrables exemples mettent en évidence les préjugés sexistes, culturels et ethniques des algorithmes d’IA au sein de la société. Il est peu imaginable que les entreprises et les institutions cherchent à exacerber les inégalités raciales, socio-économiques et de genre… Pourquoi leurs algorithmes le font-ils, alors ?
Éduquer des bambins
Lizzy Sonefeld (ex-Nike, CEO de « Two Things ») voit en l’IA un bambin qui sait peu de choses et manifeste peu d’émotions. Le système doit tout apprendre. L’apprentissage machine et l’intelligence artificielle utilisent des modèles et des algorithmes alimentés et formés par des ensembles de données. Or, tant la création du modèle initial que l’organisation et l’affectation des ensembles de données sont effectuées par... des humains. Cette influence humaine a un impact (inconscient) sur les préjugés latents de ces systèmes. Dans le processus d’apprentissage machine qui s’ensuit, l’incomplétude, les hypothèses erronées ou les biais latents de ces ensembles de données peuvent conduire à un biais systématique.
Facebook a récemment annoncé qu’il traquait les préjugés (et même le racisme) dans ses algorithmes à l’aide d’équipes spécialement dédiées à cette tâche. La pression croissante des annonceurs n’y est pas étrangère. Mais les choses sont aussi plus subtiles. Fin 2019, une grande entreprise américaine a constaté que les profils proposés pour un poste de gestion financière étaient majoritairement ceux d’hommes blancs, âgés de 45 à 52 ans. Les recherches ont révélé que des profils différenciés en fonction de l’origine ethnique et du genre postulaient effectivement pour le poste, mais que le système auto-apprenant de sélection ne les présentait pas au recruteur. L’ensemble de données sur la base duquel le système a été « éduqué » était trop classiquement stéréotypé. Le comportement historique des recruteurs à d’autres postes a, en outre, fourni une fausse confirmation de la préférence présumée. En raison de ces préjugés ethniques et sexistes erronés, la liste de candidats proposée était indifférenciée.
Quand la prise de décision algorithmique tourne mal
Dans les deux exemples, l’approche indifférenciée du système était suffisamment manifeste pour faire retentir la sonnette d’alarme. Mais qu’en est-il des préjugés plus subtils et inconscients ? Il faut espérer que les systèmes actuels sont plus nuancés que « les femmes aiment la cuisine » et « les hommes aiment les voitures ». La qualité des algorithmes d’apprentissage machine dépend néanmoins des données sur lesquelles ils se fondent. Des problèmes ne manqueront pas de se poser si les algorithmes sont alimentés par des données incomplètes, non représentatives ou empreintes de préjugés humains historiques. La mathématicienne Cathy O’Neil a d’ailleurs averti, dans son ouvrage « Weapons of Math Destruction », que les algorithmes peuvent codifier le passé, renforcer le statu quo et perpétuer les inégalités sociales.
Comment résoudre le problème ?
Comment extraire l’inévitable (et souvent inconscient) biais latent de ces systèmes ? Certaines expériences exploitent l’IA pour contrôler d’autres ensembles de données. Même cette approche conduit (et ce n’est pas totalement inattendu) à des erreurs parfois étranges. Pour se protéger contre les biais dans la prise de décision algorithmique, les entreprises doivent garantir une « hygiène algorithmique » avant, pendant et après la mise en œuvre des outils d’IA. Elles peuvent s’inspirer de trois règles d’or pour y parvenir.
1. Transparence
Les outils d’IA doivent être transparents et explicables. Il est essentiel d’éviter l’effet « boîte noire ». Les fournisseurs et les développeurs de logiciels doivent pouvoir expliquer pourquoi l’algorithme réagit comme il le fait face à tout comportement automatisé.
2. Audits
Les algorithmes doivent être audités. Des contrôles réguliers et systématiques des préjugés et des réponses biaisées sont nécessaires. Il est essentiel de classifier correctement les réactions et les interpellations. Les modèles ne sont, en effet, pas seulement construits à partir de données, mais aussi de choix. Des choix quant aux données auxquelles nous devons être attentifs et quant aux données qui peuvent passer sous les radars.
3. Feed-back des utilisateurs et des parties prenantes
En plus de mesurer les performances de nos algorithmes en interne, il est essentiel d’obtenir un feed-back des utilisateurs et de l’environnement. Ces derniers peuvent identifier les contenus qui ont été publiés de manière inappropriée, y compris les recommandations étranges des assistants d’IA conversationnelle, les e-mails non pertinents et une foule d’autres erreurs algorithmiques.
Interface humaine
L’automatisation ainsi que l’utilisation et l’importance croissantes des algorithmes, de l’IA et de l’apprentissage machine induisent donc un risque sur le plan de l’inclusion, de la diversité ethnique et de genre et de l’intégration sociale. Il en résulte aussi un risque d’atteinte à l’image ou à la marque, que beaucoup d’annonceurs évaluent souvent mal. Il incombe à l’homme, en tant qu’interface humaine, d’identifier et d’évaluer ces modèles. Le feed-back et l’analyse sont essentiels pour identifier les classifications limitatives susceptibles de provoquer des biais. Une contribution humaine est donc (pour l’instant ?) encore inévitable.