Les discriminations à l’embauche liées au recrutement automatisé par IA Analyse comparée des modèles d’encadrement en France et en Ontario (Canada), par Auriane Okombi

Si la pertinence du parcours demeure déterminante pour convaincre un recruteur, la capacité du CV à être interprété par les logiciels de tri automatisé constitue désormais une condition d'accès préalable à une évaluation humaine. Une part croissante des grandes entreprises à l’échelle mondiale recourt désormais à des outils d’IA dans leurs processus de recrutement. Les logiciels de tri automatisé tels que les Applicant Tracking Systems promettent un gain de temps considérable et une réduction de l’influence des biais humains à des recruteurs souvent confrontés à un volume élevé de candidatures. 

Ceci étant, l’IA ne décide jamais de manière autonome. Lorsque les modèles d’apprentissage automatique sur lesquels reposent les outils sont biaisés, ces derniers sont susceptibles de reproduire, voire d’amplifier des biais discriminatoires. Le géant américain Amazon en a fait l’expérience en 2017, lorsqu’un outil interne a été abandonné après avoir systématiquement défavorisé les candidatures féminines. Ce phénomène de « Garbage In, Garbage Out » illustre les dangers d’une automatisation non maîtrisée qui conduit à l’exclusion automatique de certains profils avant la moindre intervention humaine. Ces dérives relèvent typiquement de la discrimination indirecte, telle qu’elle se manifeste lorsque des critères en apparence neutres produisent un désavantage particulier pour certains groupes protégés. D’abord observées aux États-Unis, elles ont contribué à éveiller l’attention d’autres juridictions sur les risques d’un usage non encadré de l’IA dans le recrutement.

Ce n’est que très récemment que l’Ontario a pris des dispositions sérieuses face à ce problème émergent. Bien que la province canadienne interdise déjà la discrimination à l’embauche par l’article 5 de l’Ontario Human Rights Code (OHRC), l’usage d’outils algorithmiques dans le cadre du recrutement a longtemps été délaissé par les législateurs provincial et fédéral, privilégiant une approche soft law. L’entrée en vigueur au 1er janvier 2026 de l’article 8.4 du Working for Workers Four Act (Bill 149) impose désormais une obligation de divulgation du recours à l’IA par les employeurs de la province, lorsque celle-ci est utilisée pour filtrer, évaluer ou sélectionner des candidatures. Il s’agit d’une première étape réglementaire dans un contexte nord-américain encore largement permissif. En France, la discrimination à l’embauche est également prohibée en droit pénal et consacre un principe de non-discrimination en droit du travail. À l’opposé de l’approche ontarienne essentiellement axée sur la divulgation de l’information, la France s’appuie sur un arsenal juridique dense et complexe combinant  principalement le droit interne et le droit de l’Union européenne.

Les deux modèles divergent ainsi par leur philosophie régulatrice. Là où le droit français privilégie une approche contraignante visant à encadrer la décision algorithmique, l’Ontario adopte un modèle principalement informationnel, centré sur l’autonomie du candidat. 

L’entrée en vigueur récente de la loi ontarienne ne permet pas, à ce stade, d’en mesurer les effets. Dès lors, il convient plutôt de s’interroger sur la portée des promesses normatives. Face à un recours accru au tri automatisé par IA dans les processus de recrutement, le modèle d’encadrement français est-il réellement plus efficace que l’obligation ontarienne de divulgation pour protéger les candidats contre les biais discriminatoires ? L’étude comparée du minimalisme informatif du modèle ontarien et du dirigisme substantiel du modèle français opposera deux stratégies de régulation antagonistes (I) qui révèlent finalement la même incapacité à protéger efficacement le candidat face aux biais discriminatoires induits par l’algorithme (II).

 

I. Des stratégies de régulation antagonistes face à l'opacité algorithmique

Afin de répondre au risque discriminatoire induit par l’opacité algorithmique, les législateurs ont opté pour des réponses divergentes. L’Ontario impose simplement une transparence informationnelle fondée sur l’autonomie du candidat (A), tandis que le modèle franco-européen privilégie une régulation substantielle dense, encadrant ex ante la conception des systèmes d’IA (B).

 

A. Le modèle ontarien : une simple obligation de divulgation

En adoptant l’article 8.4 du Bill 149, l’Ontario instaure enfin un cadre réglementaire au recrutement automatisé, rompant ainsi avec les simples codes de conduite volontaires sur l’IA. Toutefois, cette ambition se heurte au fait que la norme ne se limite qu’à une obligation de divulgation. En imposant une simple mention standardisée dans l’offre d’emploi publicly advertised, le législateur ontarien choisit de ne pas encadrer directement les algorithmes ni la qualité des données d’entraînement là où le modèle franco-européen se veut plus interventionniste. Ce choix traduit le compromis politique d’afficher une posture de protection sans toutefois alourdir le coût de conformité pour les employeurs.  

Cette transparence de façade est d'autant plus fragile qu'elle s'inscrit dans une architecture multiniveaux lacunaire. Au niveau fédéral, un projet de loi Bill C-27 sur l’usage de l’IA avait été déposé en 2022. Il visait à harmoniser les lois fédérales en la matière, notamment à travers une Charte numérique comprenant la Loi sur l’intelligence artificielle et les données. Ce projet, pourtant prometteur, n’a finalement pas abouti et a été complètement délaissé par le Parlement en janvier 2025. 

Le contrôle repose donc principalement sur des régimes généraux tels que la Personal Information Protection and Electronic Documents Act, qui ne consacre que la protection des données dans le secteur privé et non directement l’usage de l’IA. 

En l'absence de standard national clair, l'article 8.4 crée une simple obligation d'information déconnectée de toute exigence de performance technique. En cela, le modèle ontarien déplace le risque vers le candidat. Informé de l’existence d’un tri automatisé, celui-ci reste démuni face à l’opacité de la décision algorithmique. La transparence cesse alors de fonctionner comme un rempart contre la discrimination pour devenir une injonction à l’auto-régulation. Le candidat est incité à conformer son CV à des critères implicites, voire à s’auto-censurer en renonçant à candidater à certaines offres d’emploi. 

 

B. Le modèle français : un contrôle substantiel trop sophistiqué

 À l'opposé du minimalisme ontarien, le modèle français s'inscrit dans un contrôle ex ante. Là où l'Ontario ne fait qu’informer, la France, sous l'impulsion du droit communautaire, régule la structure même de l'outil. Cela repose sur une symbiose normative entre le droit interne et le bloc européen formé par le Règlement général sur la protection des données (RGPD) et le récent Règlement sur l'intelligence artificielle (AI Act). 

En qualifiant les systèmes de recrutement par IA de dispositifs à « haut risque », l’AI Act substitue à la simple transparence une logique de conformité structurée. Il impose notamment un dispositif de gestion des risques et de gouvernance des données destiné à réduire les biais, exige une documentation technique préalable et encadre la performance du système en matière d’exactitude, de robustesse et de cybersécurité, avant toute mise sur le marché ou mise en service. En principe, l'article 22 du RGPD reconnaît au candidat le droit de ne pas faire l’objet d’une décision produisant des effets juridiques basés exclusivement sur un traitement automatisé et sans garanties d'intervention humaine réelle ni droit de contestation effectif. Cela inclut explicitement le recrutement au travers du considérant 71 du RGPD qui cite les « pratiques de recrutement en ligne » parmi les exemples de décisions susceptibles d’être prises de manière automatisée et exigeant ainsi des garanties effectives. 

Ce modèle de protection a été récemment consolidé par la jurisprudence de la Cour de justice de l’Union européenne dans un arrêt SCHUFA rendu en décembre 2023. En jugeant que le simple établissement d'un « score » algorithmique peut constituer une décision automatisée s'il détermine de manière trop importante la décision finale, la Cour neutralise les stratégies de contournement des recruteurs qui tenteraient de présenter l'IA comme une simple « aide au tri » et non comme le décisionnaire final.

Le modèle européen privilégie une régulation substantielle lourde afin de dompter la « boîte noire » qui rend opaque la logique des décisions algorithmiques pour les candidats. Cependant, cette densité normative peut s’avérer être trop complexe et coûteuse pour les candidats qui renoncent à contester la décision comme pour les employeurs qui peuvent se tourner vers des pratiques moins régulées.

 

II. Des stratégies de régulation défaillantes face à l’opacité algorithmique 

Si les modèles ontarien et franco-européen divergent quant aux instruments mobilisés, ils convergent dans leur incapacité à offrir un recours effectif face à l’opacité algorithmique. Cette défaillance se manifeste d’abord sur le terrain probatoire (A) et conduit à s’interroger sur la hiérarchie réelle des protections offertes aux candidats (B).

 

A. Une procédure neutralisée par l’obstacle de la preuve

Peu importe la complexité du modèle d’encadrement, l’effectivité de la protection du candidat se heurte à une opacité juridique structurelle en matière de preuves. 

En France, le candidat est confronté à l’article L. 151-1 du Code de commerce, qui consacre le secret des affaires, et à l’article L. 112-2 du Code de la propriété intellectuelle, qui, via le droit d’auteur dans sa dimension patrimoniale, protège les codes sources contre toute copie ou extraction non autorisée. Sans dévoilement technique, établir un lien de causalité entre ses caractéristiques protégées et le rejet de sa candidature devient particulièrement difficile.

En Ontario, le candidat contestant une décision présumée discriminatoire doit d’abord établir une preuve prima facie via le test Meiorin/Moore. Cela exige notamment de démontrer un lien de causalité avec un motif protégé par l’article 5 du OHRC. Or, le trade secret défini par le test Coco v. Clark sur la confidentialité des modèles non open source rend impossible la possibilité d’accéder à tout lien de causalité entre le profil du candidat et la décision algorithmique. Dans les deux systèmes, l’obstacle de la preuve neutralise donc le recours pour le candidat. L’information ontarienne reste stérile faute d’accès aux données ayant fondé la décision algorithmique, tandis que le dirigisme normatif franco-européen peine à se traduire en levier d’action pour un individu isolé, y compris sur le terrain de l’article 22 du RGPD qui se révèle difficilement mobilisable. En fin de compte, que l’encadrement soit minimaliste ou interventionniste, le législateur n’offre pas d’outil contentieux réaliste. 

 

B. Une hiérarchie des protections inversée ? 

L’analyse des deux modèles révèle que la densité normative n’est pas toujours gage de protection effective. En Ontario, l’obligation de divulgation prévue à l’article 8.4 du Bill 149 est minimaliste, mais peut avoir un effet pratique immédiat. En étant informé de l’usage d’une IA, le candidat peut éventuellement adapter sa candidature aux contraintes du tri automatisé, notamment en privilégiant un format lisible par la machine. Cette information peut également, a posteriori, s’il s’estime victime d’une discrimination, l’inciter à former un recours en déposant une plainte devant le Human Rights Tribunal of Ontario sur le fondement de l’article 5 du OHRC. Cette transparence de surface n’éradique pas les biais et fournit une information pauvre, qui toutefois s’avère être directement exploitable.

À l’inverse, l’arsenal franco-européen revendique une protection substantielle, en amont comme en aval, en encadrant les systèmes « à haut risque » et en multipliant les garanties formelles de conformité qui promettent de « dompter » la boîte noire. Pourtant, ces promesses, notamment celle de l’article 22 du RGPD, supposent que le candidat engage une démarche contentieuse techniquement exigeante face à des adversaires bien plus puissants. Il en résulte que tant que logique du raisonnement algorithmique demeure impénétrable, le candidat n’a pas de véritable moyen d’exercer les nombreux droits qui lui sont garantis et l’encadrement interventionniste devient, lui aussi, une protection tout aussi symbolique.

 

Conclusion

In fine, ce constat invite à se questionner sur l'honnêteté des modèles. La transparence de surface de l’Ontario s'avère paradoxalement plus exploitable individuellement. Le modèle français est plus protecteur en théorie, mais sa robustesse est minée par une complexité telle qu'elle crée des droits dont le candidat jouit difficilement, sinon pas du tout. Dans ce contexte, le contentieux Mobley v. Workday en Californie, qui interroge directement la responsabilité des éditeurs de logiciels à l’égard des rejets de candidatures liés aux biais discriminatoires de l’algorithme, pourrait bien être l'étincelle qui contraindra ces deux modèles à construire des leviers d’action plus réalistes et accessibles aux candidats afin de garantir une réelle justice de l’algorithme.