Data et IA, fabriques à préjugés et stéréotypes
Cela fait des années qu’on nous abreuve d’articles, de conférences, de webinars et autres Tedx sur la révolution IA et data et tous les bienfaits que cela représente pour TOUS les secteurs. Les data, ce Grââl que nous attendions tous pour passer dans le 3ème millénaire.
Loin de moi l’idée de contester l’importance des data et de ce qu’elles améliorent dans notre quotidien. Et merci à PUB de faire le tour de la question dans nos métiers.
Mais force est de constater justement que dans nos métiers, la data intelligente qui adapte les contenus et les publicités aux comportements des utilisateurs constitue en fait une gigantesque fabrique à stéréotypes et préjugés.
Les mécanismes mis en place pour collecter, analyser, recouper les data l’ont été par des humains (en grande partie des hommes blancs…), avec des méthodes de classification humaines, elles-mêmes basées sur des stéréotypes, des schémas de pensée et (très certainement) des préjugés humains.
Les machines apprenantes et les algorithmes de l’AI fonctionnent majoritairement sur des classifications a priori “biaisées” (ce qu’on appelle le “AI bias” en anglais) qui au fur et à mesure de l’apprentissage avec des utilisateurs qui fonctionnent eux-mêmes avec plein de préjugés et de stéréotypes, ne font que les renforcer.
Alors dans un monde de plus en plus gamifié, amusons-nous un peu, et prenons chacun.e 15 à 20 minutes par jour pour adopter des comportements erratiques et incohérents lors de nos séances de surfing et déjouer ou perturber les AI en mode fun.
Et surtout prenons 1h30 de notre temps pour regarder l’excellent The Social Dilemma qui nous montre les rouages et les dérives de la data.
Didier Ackermans
Chief Strategy Officer Woomera & Président Master PUB IHECS