L’Intelligence artificielle (IA) a aujourd’hui le vent en poupe et devient un levier majeur pour les Directions des Ressources Humaines. Le cabinet Tractica prédit une augmentation moyenne annuelle de 50% jusqu’en 2025 de son utilisation en entreprise. Dans le cadre de la gestion de processus de recrutement en particulier, les algorithmes de matching fleurissent, avec la promesse d’analyser rapidement et objectivement un volume important de candidatures à partir notamment du CV. Qu’en est-il réellement ? Quelles solutions envisager face aux problématiques et enjeux identifiés ?
Les algorithmes d’IA développés restent imparfaits
Autres articles
-
Les 5 innovations marketing qui vont révolutionner le secteur du retail
-
Marché de l’immobilier en berne : comment réagissent les professionnels du secteur ?
-
Les géants du cloud tiennent les entreprises en otage
-
L’impact de l’IA dans le secteur des Datacenters
-
Quels impacts ont les données du secteur informatique sur le climat ?
Force est de constater que les algorithmes d’IA développés actuellement restent encore imparfaits. On observe un écart entre ce qui est souhaité, ce que l’on pense avoir programmé, et le résultat transmis par l’algorithme. Ce fut le cas d’Amazon : en 2014, l’entreprise lançait son propre algorithme d’IA destiné à faciliter son processus de recrutement. Un an après, les résultats obtenus laissaient perplexe : l’algorithme n’avait retenu que des CV d’hommes.
Pour comprendre, il faut se pencher sur la façon dont fonctionne et est construit un algorithme d’IA : l’algorithme travaille et apprend à partir d’une base de données. Des développeurs l’enrichissent ensuite en le programmant, pour le guider précisément dans son analyse des candidatures. Ce sont bien ces deux éléments qui interrogent aujourd’hui et font de certains algorithmes des solutions biaisées, reproduisant les stéréotypes actuels.
En effet, les données existantes à ce jour sont majoritairement des données sur les hommes, car on manque de données sur les femmes. L’algorithme prend en référence ces données, en déduit un comportement à suivre, puis l’applique et donc reproduit voire amplifie les biais existants. C’est ce qui s’est passé chez Amazon : les données communiquées à l’algorithme pour des postes techniques ou de développeurs étaient une concaténation de modèles de CV pour ces profils sur les dix dernières années. Ces postes étant majoritairement occupés par des hommes, l’algorithme en a conclu qu’ils correspondaient davantage aux hommes qu’aux femmes.
Et puis, il y a les développeurs qui œuvrent derrière les algorithmes. Le monde de la programmation, de l’IA et de la tech en général reste encore très masculin : 1/3 des femmes travaillent dans le secteur du numérique et seules 12% des chercheurs en IA sont des femmes. Les développeurs ne représentent donc pas l’ensemble de la population et sont porteurs de biais conscients ou inconscients, qui se retrouvent ensuite dans leurs codes.
Pour comprendre, il faut se pencher sur la façon dont fonctionne et est construit un algorithme d’IA : l’algorithme travaille et apprend à partir d’une base de données. Des développeurs l’enrichissent ensuite en le programmant, pour le guider précisément dans son analyse des candidatures. Ce sont bien ces deux éléments qui interrogent aujourd’hui et font de certains algorithmes des solutions biaisées, reproduisant les stéréotypes actuels.
En effet, les données existantes à ce jour sont majoritairement des données sur les hommes, car on manque de données sur les femmes. L’algorithme prend en référence ces données, en déduit un comportement à suivre, puis l’applique et donc reproduit voire amplifie les biais existants. C’est ce qui s’est passé chez Amazon : les données communiquées à l’algorithme pour des postes techniques ou de développeurs étaient une concaténation de modèles de CV pour ces profils sur les dix dernières années. Ces postes étant majoritairement occupés par des hommes, l’algorithme en a conclu qu’ils correspondaient davantage aux hommes qu’aux femmes.
Et puis, il y a les développeurs qui œuvrent derrière les algorithmes. Le monde de la programmation, de l’IA et de la tech en général reste encore très masculin : 1/3 des femmes travaillent dans le secteur du numérique et seules 12% des chercheurs en IA sont des femmes. Les développeurs ne représentent donc pas l’ensemble de la population et sont porteurs de biais conscients ou inconscients, qui se retrouvent ensuite dans leurs codes.
Quelles pistes pour rendre un algorithme d’IA optimal et égalitaire ?
Le choix ou la création d’une bonne base de données est premièrement crucial, puisque l’algorithme apprend à partir des données. Celles-ci doivent être suffisamment complètes et diversifiées pour que des profils atypiques, en reconversion professionnelle par exemple, ne soient pas automatiquement mis de côté.
Ensuite, l’équipe qui programme l’algorithme doit être variée (profil, genre, origine…) et ses membres complémentaires. La diversité amène la créativité et permet de se poser les bonnes questions pour s’assurer que l’algorithme est inclusif. C’est ce qu’affirme K. Nilson, co-fondateur de Pivigo, entreprise anglaise de data science : « La créativité a besoin de la diversité et nous devons nous demander : “En faisant cela, est-ce que je fais du tort à quelqu’un” ». Une équipe de développeurs diversifiée va définir les valeurs à intégrer à l’algorithme, et donc le rendre complet, dénué autant que possible de biais. Cela ne se fera cependant pas du jour au lendemain : le secteur de la tech doit parvenir à se féminiser, et, plus généralement, à se diversifier. Des initiatives se multiplient pour encourager les femmes notamment à faire carrière dans la tech, dès le plus jeune âge. Work180, une plateforme de recherche d’emploi mettant en avant les entreprises qui soutiennent et valorisent les carrières féminines, organise par exemple tous les ans, en Australie et en Nouvelle-Zélande, l’événement SuperDaugther Day : créé en partenariat avec des entreprises de la tech, il vise à initier dès le primaire les jeunes filles aux matières scientifiques appliquées à l’entreprise.
Gageons qu’à terme, les algorithmes d’IA seront un outil permettant de s’émanciper des stéréotypes actuels, « d’ouvrir ses chakras », pour recruter des candidats aux parcours différents. Et nul doute qu’après la sortie de la crise sanitaire Covid-19 que nous traversons, nous allons redéfinir complètement le contenu fonctionnel et technique des algorithmes d’IA et les personnes qui vont le coder. C’est le monde d’après à redéfinir.
A propos de l'auteur : Camille Schmitt est consultante au sein de la practice Conseil RH de Magellan Consulting.
Ensuite, l’équipe qui programme l’algorithme doit être variée (profil, genre, origine…) et ses membres complémentaires. La diversité amène la créativité et permet de se poser les bonnes questions pour s’assurer que l’algorithme est inclusif. C’est ce qu’affirme K. Nilson, co-fondateur de Pivigo, entreprise anglaise de data science : « La créativité a besoin de la diversité et nous devons nous demander : “En faisant cela, est-ce que je fais du tort à quelqu’un” ». Une équipe de développeurs diversifiée va définir les valeurs à intégrer à l’algorithme, et donc le rendre complet, dénué autant que possible de biais. Cela ne se fera cependant pas du jour au lendemain : le secteur de la tech doit parvenir à se féminiser, et, plus généralement, à se diversifier. Des initiatives se multiplient pour encourager les femmes notamment à faire carrière dans la tech, dès le plus jeune âge. Work180, une plateforme de recherche d’emploi mettant en avant les entreprises qui soutiennent et valorisent les carrières féminines, organise par exemple tous les ans, en Australie et en Nouvelle-Zélande, l’événement SuperDaugther Day : créé en partenariat avec des entreprises de la tech, il vise à initier dès le primaire les jeunes filles aux matières scientifiques appliquées à l’entreprise.
Gageons qu’à terme, les algorithmes d’IA seront un outil permettant de s’émanciper des stéréotypes actuels, « d’ouvrir ses chakras », pour recruter des candidats aux parcours différents. Et nul doute qu’après la sortie de la crise sanitaire Covid-19 que nous traversons, nous allons redéfinir complètement le contenu fonctionnel et technique des algorithmes d’IA et les personnes qui vont le coder. C’est le monde d’après à redéfinir.
A propos de l'auteur : Camille Schmitt est consultante au sein de la practice Conseil RH de Magellan Consulting.