Le recrutement algorithmique en droit social français

Dans une étude récemment publiée dans La Semaine Juridique – Social (n°13, 1er avril 2025) [Le recrutement algorithmique], le Professeur Laurent Gamet se penche sur le développement du recours aux algorithmes dans les processus de recrutement et les enjeux qu’ils soulèvent en droit français. Lorsqu’un employeur a recours à un traitement automatisé de données personnelles – ce qui est le cas dans presque tous les dispositifs de recrutement algorithmique actuels, qu’il s’agisse de tri de CV, d’analyse sémantique, ou de matching automatisé, quels sont les obligations qui s’imposent à lui et quels sont les droits de la personne concernée ? L’auteur se concentre particulièrement sur les trois thèmes suivants : transparence et finalité du traitement, décision entièrement automatisée et risque de discrimination.

Premier pilier de l’analyse : la question de la transparence et de la finalité des traitements algorithmiques. L’auteur rappelle l’exigence de la base juridique au traitement sur la base du RGPD et l’acuité particulière du principe de minimisation. Les art. L. 1221-8 et 1221-9 du Code du travail, relatifs au recrutement, s’appliquent également : information des candidats ;  pertinence des critères, méthodes et techniques au regard des finalités poursuivies.

Mais la transparence ne se limite pas à une simple mention dans une politique de confidentialité : encore faut-il que les finalités du traitement soient claires, que les candidats sachent à quoi sert l’algorithme, et comment il intervient dans la prise de décision. Cela implique notamment de dire si l’outil se contente de fournir une aide à la décision, ou s’il participe activement à l’évaluation des candidatures. Or, dans la pratique, cette transparence reste souvent toute théorique. Les employeurs doivent assumer une obligation de loyauté et d’intelligibilité. Il ne suffit pas de se retrancher derrière un fournisseur de solution technologique ou l’argument de la Black Box : l’entreprise demeure responsable de l’utilisation qu’elle fait de l’outil algorithmique, y compris vis-à-vis des candidats non retenus.

Deuxième axe de l’étude : le régime applicable aux décisions fondées exclusivement sur un traitement algorithmique. Ici encore, le RGPD apporte un cadre juridique strict, qui trouve une résonance directe en droit du travail. L’article 22 du Règlement interdit, sauf exceptions, les décisions individuelles produisant des effets juridiques sur une personne (ou l’affectant de manière significative) si elles sont prises uniquement sur le fondement d’un traitement automatisé. L’exception serait ici celle la décision nécessaire à l’exécution d’un contrat entre la personne concernée et un responsable de traitement dans le cadre d’un grand nombre de candidatures (art. 22 (2) let. a RGPD). La personne concernée a alors le droit de faire revoir la décision par un humain. Cela suppose que l’intervention humaine ne soit pas purement formelle ou cosmétique, mais qu’elle permette réellement d’interpréter les résultats de l’algorithme, de les nuancer, et de prendre du recul. Le candidat a aussi le droit d’accéder à la logique sous-jacente à la décision automatisée.

Troisième volet : le risque de discrimination algorithmique. Cela concerne les risques de discrimination générés ou renforcés par les systèmes algorithmiques. Loin d’être neutres, ces outils peuvent intégrer, reproduire, voire amplifier les biais sociaux et discriminations déjà présents dans les données utilisées pour l’entraînement. Un algorithme entraîné sur des décisions humaines, prises dans un contexte social donné, risque fort de reconduire les préférences historiques qui s’y trouvent : survalorisation de certains diplômes, de certaines zones géographiques, voire de certains prénoms.

Un tri automatique fondé sur des critères apparemment neutres peut en réalité avoir un effet disproportionné sur certaines catégories protégées (genre, origine, âge…). Et comme l’algorithme n’explique pas ses choix, ou que ses paramètres restent opaques, il devient très difficile pour une victime potentielle de prouver une atteinte à ses droits.

Pour les avocats suisses, la très intéressante et pédagogique étude de Laurent Gamet a une double portée : elle offre un aperçu précis de la manière dont le droit social français s’approprie la révolution algorithmique, et elle fournit des repères utiles pour réfléchir à l’évolution du droit du travail helvétique. À l’heure où les pratiques de recrutement s’uniformisent à l’échelle transfrontalière, il devient essentiel de penser une protection juridique qui ne soit pas en retard sur la technologie, mais qui sache au contraire en canaliser les usages, au service de l’équité, de la transparence, et de la dignité au travail, mais aussi de la défense bien comprise des intérêts des recruteurs.

Me Philippe Ehrenström, avocat, LLM

Avatar de Inconnu

About Me Philippe Ehrenström

Ce blog présente certains thèmes juridiques en Suisse ainsi que des questions d'actualité. Il est rédigé par Me Philippe Ehrenström, avocat indépendant, LL.M., Yverdon-les-Bains
Cet article, publié dans intelligence artificielle, Protection de la personnalité, Protection des données, RGPD, est tagué , , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire