Afin d’améliorer les appariements sur le marché du travail et faciliter le retour à l’emploi, Pôle emploi investit massivement dans l’exploitation des données à sa disposition et dans de nouveaux outils de machine learning pour les traiter. Dans ce cadre un premier algorithme de recommandations de demandeurs d’emploi (aux employeurs potentiels) et d’offres (aux demandeurs d’emploi) a été construit par le partenariat (cf : VADORE ). En utilisant les données observées de manière optimale, il permettrait d’améliorer les appariements et réduire la durée moyenne de chômage. Outre ce gain de performance on pourrait s’attendre à ce que ce type de traitement soit plus objectif et impartial qu'en comparaison avec un traitement humain qui est limité et influencé par le prisme des représentations sociales. Pourtant cela n’est pas nécessairement le cas. Un algorithme est entraîné sur des données issues du monde réel qui reflètent ses inégalités et ses discriminations. Il se peut donc que l’algorithme reproduise, voire exacerbe les inégalités existantes sur le marché du travail. Afin de garantir l’équité des algorithmes construits et assurer à tous les demandeurs d’emploi des opportunités ne dépendant que de leurs caractéristiques pertinentes, ce projet effectuera dans un premier temps un audit de l'algorithme construit par le partenariat. La deuxième partie du projet s’attèlera à la construire d’une correction. Ce travail participera également à une plus grande transparence et explicabilité des algorithmes de recommandation sur le marché du travail.
Quels sont les risques liés à l’utilisation des algorithmes de recommandation d’offres et de demandeurs d’emploi ? Comment mesurer les biais qu’ils engendrent sur le marché du travail ? Leur introduction reproduit-elle, aggrave-t-elle ou au contraire atténue-t-elle certains biais, et quelles sont les catégories de personnes concernées ? Existe-il des solutions transparentes et implémentables pour limiter les biais ? Le respect des critères d’équité compromet-il les performances de l’algorithme (mesurées selon des indicateurs donnés) et peut-on évaluer l’arbitrage ?
Cette étude des biais algorithmiques s’adosse au projet « Valorisation des Données pour la Recherche d’Emploi » (VADORE) dont l’objectif est la construction d’un algorithme capable d’émettre des recommandations à destination des demandeurs d’emploi et des entreprises à partir des embauches passées. La première étape du projet sera dédiée au diagnostic et à la description des biais exhibés par cet algorithme. On cherchera notamment à savoir s’il exacerbe ou lisse les inégalités existantes sur le marché du travail. Les différences de traitement potentiels en fonction de variables dites « sensibles » (e.g. sexe, origine ethnique, âge,etc.) feront l’objet d’une attention particulière. En ce qui concerne la méthode, nous faisons le choix d’une analyse causale des biais, c’est-à-dire que nous comparons l’impact de l’algorithme sur une variable d’intérêt comme le retour à l’emploi et une situation contrefactuelle ou l’algorithme n’aurait pas été déployé.
La deuxième étape du projet consiste à mettre en place des garde-fous et/ou construire des corrections pour garantir l’équité d’un algorithme de recommandation en production dans une institution comme Pôle emploi. Plusieurs pistes sont envisagées et s’inspirent de la littérature en algorithmie sur la correction des biais des systèmes de recommandations. Il est important de noter que l’introduction d’une telle correction peut entraîner mécaniquement des baisses de performances (en terme de retour à l’emploi). Afin d’évaluer notre solution nous tenterons de quantifier l’arbitrage entre équité et performance.
Projet en cours, résultats à venir en Septembre 2022.
© Elia Pérennès - 2020