Les discriminations à l’embauche liées au recrutement automatisé par IA - Analyse comparée des modèles d’encadrement en France et en Ontario (Canada), par Aurianne Okombi
Dans le secteur du recrutement, l’intelligence artificielle (IA) filtre désormais les candidatures via des algorithmes opaques, les exposant à des biais[1] difficilement détectables et contestables. En Ontario, le Bill 149 n’impose qu’une simple obligation d’information du candidat, tandis qu’en France, le droit interne, le RGPD et l’AI Act instaurent un encadrement dense. Pourtant, ces deux modèles, minimaliste et interventionniste, peinent à protéger efficacement les candidats face à l’opacité algorithmique.
Si la pertinence du parcours demeure déterminante pour convaincre un recruteur, la capacité du CV à être interprété par les logiciels de tri automatisé[2] constitue désormais une condition d'accès préalable à une évaluation humaine. Une part croissante des grandes entreprises à l’échelle mondiale recourt désormais à des outils d’IA dans leurs processus de recrutement[3]. Les logiciels de tri automatisé tels que les Applicant Tracking Systems promettent un gain de temps considérable et une réduction de l’influence des biais humains à des recruteurs souvent confrontés à un volume élevé de candidatures[4].
Ceci étant, l’IA ne décide jamais de manière autonome[5]. Lorsque les modèles d’apprentissage automatique sur lesquels reposent les outils sont biaisés, ces derniers sont susceptibles de reproduire, voire d’amplifier des biais discriminatoires[6]. Le géant américain Amazon en a fait l’expérience en 2017, lorsqu’un outil interne a été abandonné après avoir systématiquement défavorisé les candidatures féminines[7]. Ce phénomène de « Garbage In, Garbage Out »[8] illustre les dangers d’une automatisation non maîtrisée qui conduit à l’exclusion automatique de certains profils avant la moindre intervention humaine[9]. Ces dérives relèvent typiquement de la discrimination indirecte, telle qu’elle se manifeste lorsque des critères en apparence neutres produisent un désavantage particulier pour certains groupes protégés[10]. D’abord observées aux États-Unis, elles ont contribué à éveiller l’attention d’autres juridictions sur les risques d’un usage non encadré de l’IA dans le recrutement.
Ce n’est que très récemment que l’Ontario a pris des dispositions sérieuses face à ce problème émergent. Bien que la province canadienne interdise déjà la discrimination à l’embauche[11] par l’article 5 de l’Ontario Human Rights Code (OHRC)[12], l’usage d’outils algorithmiques dans le cadre du recrutement a longtemps été délaissé par les législateurs provincial et fédéral, privilégiant une approche soft law. L’entrée en vigueur au 1er janvier 2026 de l’article 8.4 du Working for Workers Four Act (Bill 149) impose désormais une obligation de divulgation du recours à l’IA par les employeurs de la province, lorsque celle-ci est utilisée pour filtrer, évaluer ou sélectionner des candidatures. Il s’agit d’une première étape réglementaire dans un contexte nord-américain encore largement permissif. En France, la discrimination à l’embauche est également prohibée en droit pénal[13] et consacre un principe de non-discrimination en droit du travail[14]. À l’opposé de l’approche ontarienne essentiellement axée sur la divulgation de l’information, la France s’appuie sur un arsenal juridique dense et complexe combinant principalement le droit interne et le droit de l’Union européenne.
Les deux modèles divergent ainsi par leur philosophie régulatrice. Là où le droit français privilégie une approche contraignante visant à encadrer la décision algorithmique, l’Ontario adopte un modèle principalement informationnel, centré sur l’autonomie du candidat.
L’entrée en vigueur récente de la loi ontarienne ne permet pas, à ce stade, d’en mesurer les effets. Dès lors, il convient plutôt de s’interroger sur la portée des promesses normatives. Face à un recours accru au tri automatisé par IA dans les processus de recrutement, le modèle d’encadrement français est-il réellement plus efficace que l’obligation ontarienne de divulgation pour protéger les candidats contre les biais discriminatoires ? L’étude comparée du minimalisme informatif du modèle ontarien et du dirigisme substantiel du modèle français opposera deux stratégies de régulation antagonistes (I) qui révèlent finalement la même incapacité à protéger efficacement le candidat face aux biais discriminatoires induits par l’algorithme (II).
- Des stratégies de régulation antagonistes face à l'opacité algorithmique
Afin de répondre au risque discriminatoire induit par l’opacité algorithmique, les législateurs ont opté pour des réponses divergentes. L’Ontario impose simplement une transparence informationnelle fondée sur l’autonomie du candidat (A), tandis que le modèle franco-européen privilégie une régulation substantielle dense, encadrant ex ante la conception des systèmes d’IA (B).
A. Le modèle ontarien : une simple obligation de divulgation
En adoptant l’article 8.4 du Bill 149, l’Ontario instaure enfin un cadre réglementaire au recrutement automatisé, rompant ainsi avec les simples codes de conduite volontaires sur l’IA[15]. Toutefois, cette ambition se heurte au fait que la norme ne se limite qu’à une obligation de divulgation. En imposant une simple mention standardisée dans l’offre d’emploi publicly advertised, le législateur ontarien choisit de ne pas encadrer directement les algorithmes ni la qualité des données d’entraînement là où le modèle franco-européen se veut plus interventionniste. Ce choix traduit le compromis politique d’afficher une posture de protection sans toutefois alourdir le coût de conformité pour les employeurs.
Cette transparence de façade est d'autant plus fragile qu'elle s'inscrit dans une architecture multiniveaux lacunaire[16]. Au niveau fédéral, un projet de loi Bill C-27 sur l’usage de l’IA[17] avait été déposé en 2022. Il visait à harmoniser les lois fédérales en la matière, notamment à travers une Charte numérique comprenant la Loi sur l’intelligence artificielle et les données. Ce projet, pourtant prometteur, n’a finalement pas abouti et a été complètement délaissé par le Parlement en janvier 2025[18].
Le contrôle repose donc principalement sur des régimes généraux tels que la Personal Information Protection and Electronic Documents Act, qui ne consacre que la protection des données dans le secteur privé et non directement l’usage de l’IA[19].
En l'absence de standard national clair, l'article 8.4 crée une simple obligation d'information déconnectée de toute exigence de performance technique. En cela, le modèle ontarien déplace le risque vers le candidat. Informé de l’existence d’un tri automatisé, celui-ci reste démuni face à l’opacité de la décision algorithmique[20]. La transparence cesse alors de fonctionner comme un rempart contre la discrimination pour devenir une injonction à l’auto-régulation. Le candidat est incité à conformer son CV à des critères implicites, voire à s’auto-censurer en renonçant à candidater à certaines offres d’emploi.
B. Le modèle français : un contrôle substantiel trop sophistiqué
À l'opposé du minimalisme ontarien, le modèle français s'inscrit dans un contrôle ex ante. Là où l'Ontario ne fait qu’informer, la France, sous l'impulsion du droit communautaire, régule la structure même de l'outil. Cela repose sur une symbiose normative entre le droit interne et le bloc européen formé par le Règlement général sur la protection des données (RGPD)[21] et le récent Règlement sur l'intelligence artificielle (AI Act)[22].
En qualifiant les systèmes de recrutement par IA de dispositifs à « haut risque »[23], l’AI Act substitue à la simple transparence une logique de conformité structurée. Il impose notamment un dispositif de gestion des risques et de gouvernance des données destiné à réduire les biais, exige une documentation technique préalable et encadre la performance du système en matière d’exactitude, de robustesse et de cybersécurité, avant toute mise sur le marché ou mise en service[24]. En principe, l'article 22 du RGPD[25] reconnaît au candidat le droit de ne pas faire l’objet d’une décision produisant des effets juridiques basés exclusivement sur un traitement automatisé et sans garanties d'intervention humaine réelle ni droit de contestation effectif. Cela inclut explicitement le recrutement au travers du considérant 71 du RGPD[26] qui cite les « pratiques de recrutement en ligne » parmi les exemples de décisions susceptibles d’être prises de manière automatisée et exigeant ainsi des garanties effectives.
Ce modèle de protection a été récemment consolidé par la jurisprudence de la Cour de justice de l’Union européenne dans un arrêt SCHUFA rendu en décembre 2023[27]. En jugeant que le simple établissement d'un « score » algorithmique peut constituer une décision automatisée s'il détermine de manière trop importante la décision finale, la Cour neutralise les stratégies de contournement des recruteurs qui tenteraient de présenter l'IA comme une simple « aide au tri » et non comme le décisionnaire final.
Le modèle européen privilégie une régulation substantielle lourde afin de dompter la « boîte noire » qui rend opaque la logique des décisions algorithmiques pour les candidats. Cependant, cette densité normative peut s’avérer être trop complexe et coûteuse pour les candidats qui renoncent à contester la décision comme pour les employeurs qui peuvent se tourner vers des pratiques moins régulées.
- Des stratégies de régulation défaillantes face à l’opacité algorithmique
Si les modèles ontarien et franco-européen divergent quant aux instruments mobilisés, ils convergent dans leur incapacité à offrir un recours effectif face à l’opacité algorithmique. Cette défaillance se manifeste d’abord sur le terrain probatoire (A) et conduit à s’interroger sur la hiérarchie réelle des protections offertes aux candidats (B).
- Une procédure neutralisée par l’obstacle de la preuve
Peu importe la complexité du modèle d’encadrement, l’effectivité de la protection du candidat se heurte à une opacité juridique structurelle en matière de preuves.
En France, le candidat est confronté à l’article L. 151-1 du Code de commerce, qui consacre le secret des affaires, et à l’article L. 112-2 du Code de la propriété intellectuelle, qui, via le droit d’auteur dans sa dimension patrimoniale, protège les codes sources contre toute copie ou extraction non autorisée. Sans dévoilement technique, établir un lien de causalité entre ses caractéristiques protégées et le rejet de sa candidature devient particulièrement difficile.
En Ontario, le candidat contestant une décision présumée discriminatoire doit d’abord établir une preuve prima facie via le test Meiorin/Moore[28]. Cela exige notamment de démontrer un lien de causalité avec un motif protégé par l’article 5 du OHRC. Or, le trade secret défini par le test Coco v. Clark[29] sur la confidentialité des modèles non open source rend impossible la possibilité d’accéder à tout lien de causalité entre le profil du candidat et la décision algorithmique. Dans les deux systèmes, l’obstacle de la preuve neutralise donc le recours pour le candidat. L’information ontarienne reste stérile faute d’accès aux données ayant fondé la décision algorithmique, tandis que le dirigisme normatif franco-européen peine à se traduire en levier d’action pour un individu isolé, y compris sur le terrain de l’article 22 du RGPD qui se révèle difficilement mobilisable. En fin de compte, que l’encadrement soit minimaliste ou interventionniste, le législateur n’offre pas d’outil contentieux réaliste.
- Une hiérarchie des protections inversée ?
L’analyse des deux modèles révèle que la densité normative n’est pas toujours gage de protection effective. En Ontario, l’obligation de divulgation prévue à l’article 8.4 du Bill 149 est minimaliste, mais peut avoir un effet pratique immédiat. En étant informé de l’usage d’une IA, le candidat peut éventuellement adapter sa candidature aux contraintes du tri automatisé, notamment en privilégiant un format lisible par la machine. Cette information peut également, a posteriori, s’il s’estime victime d’une discrimination, l’inciter à former un recours en déposant une plainte devant le Human Rights Tribunal of Ontario sur le fondement de l’article 5 du OHRC. Cette transparence de surface n’éradique pas les biais et fournit une information pauvre, qui toutefois s’avère être directement exploitable.
À l’inverse, l’arsenal franco-européen revendique une protection substantielle, en amont comme en aval, en encadrant les systèmes « à haut risque » et en multipliant les garanties formelles de conformité qui promettent de « dompter » la boîte noire. Pourtant, ces promesses, notamment celle de l’article 22 du RGPD, supposent que le candidat engage une démarche contentieuse techniquement exigeante face à des adversaires bien plus puissants. Il en résulte que tant que logique du raisonnement algorithmique demeure impénétrable, le candidat n’a pas de véritable moyen d’exercer les nombreux droits qui lui sont garantis et l’encadrement interventionniste devient, lui aussi, une protection tout aussi symbolique.
Conclusion
In fine, ce constat invite à se questionner sur l'honnêteté des modèles. La transparence de surface de l’Ontario s'avère paradoxalement plus exploitable individuellement. Le modèle français est plus protecteur en théorie, mais sa robustesse est minée par une complexité telle qu'elle crée des droits dont le candidat jouit difficilement, sinon pas du tout. Dans ce contexte, le contentieux Mobley v. Workday[30] en Californie, qui interroge directement la responsabilité des éditeurs de logiciels à l’égard des rejets de candidatures liés aux biais discriminatoires de l’algorithme, pourrait bien être l'étincelle qui contraindra ces deux modèles à construire des leviers d’action plus réalistes et accessibles aux candidats afin de garantir une réelle justice de l’algorithme.
BIBLIOGRAPHIE
SOURCES TEXTUELLES :
- Textes officiels européens
Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (AI Act), §2 et annexe III, point 4(a) art. 6, 9, 10, 11, 15 et 16
Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données (RGPD), art. 22 ; consid. 71
Directive 2000/78/CE du Conseil du 27 novembre 2000 portant création d'un cadre général en faveur de l'égalité de traitement en matière d'emploi et de travail, art. 2 §2, b)
- Textes officiels français
Code de commerce, art. L.151-1
Code pénal, art. 225-1, 225-2, 5°
Code de la propriété intellectuelle, art. L. 112-2
Code du travail, art. L. 1132-1
- Textes officiels étrangers
Bill C-27 (Digital Charter Implementation Act, 2022)
Human Rights Code, RSO 1990, c H.19, s 5
Personal Information Protection and Electronic Documents Act, SC 2000, c 5, s 4(1)
Working for Workers Four Act, 2024, S.O. 2024, c. 3, Bill 149, s 8.4
JURISPRUDENCE :
- Jurisprudence de l’Union européenne
CJUE, 1re ch., 7 déc. 2023, n°634/21, Schufa, EU:C:2023:957
- Jurisprudence étrangère
a) Canada
British Columbia v British Columbia Government Service Employees' Union [1999] 3 SCR 3, 1999 SCC 48
Coco v AN Clark (Engineers) Ltd [1969] RPC 41 (Ch)
b) États-unis :
États-Unis, U.S. District Court (N.D. California), Mobley v Workday, Inc., Case No. 3:23-cv-00770-RFL
DOCTRINE :
- Articles de doctrine
Fantino M., La digitalisation du recrutement dans le domaine des Ressources Humaines, HEG Genève
Netter E., La part de l’Homme et celle de la machine dans les décisions “ automatisées ”. Propositions pour une réécriture de l’article 22 du RGPD, Vanessa Barbé. Les algorithmes et le droit, Mare et Martin
- Rapport et Études
Bartoletti I. et Xenidis R., Étude sur l’impact des systèmes d’intelligence artificielle, leur potentiel de promotion de l’égalité, y compris l’égalité de genre, et les risques qu’ils peuvent entraîner en matière de non-discrimination, Conseil de l’Europe, Commission pour l’égalité de genre (GEC) et Comité directeur sur l’anti-discrimination, la diversité et l’inclusion (CDADI), 2023
Zuiderveen Borgesius F., Discrimination, intelligence artificielle et décisions algorithmiques, Conseil de l’Europe (Direction générale de la Démocratie), 2018
SOURCES NUMÉRIQUES :
Assofac, « CV sur Canva : attention aux pièges des ATS », consulté le 28 novembre 2025, <https://www.assofac.org/post/cv-sur-canva-attention-aux-pièges-des-ats>
Canadian Labour and Employment Law, « Artificial Intelligence, Real Consequences? Legal Considerations for Canadian Employers Using AI Tools in Hiring », consulté le 29 novembre 2025, < https://www.labourandemploymentlaw.com/2025/02/artificial-intelligence-real-consequences-legal-considerations-for-canadian-employers-using-ai-tools-in-hiring/>
Courrier cadres, « Recruter avec l’IA : levier d’inclusion ou risque de discrimination ? », consulté le 28 novembre 2025, <https://courriercadres.com/recruter-avec-lia-levier-dinclusion-ou-risque-de-discrimination/>
Femmes Plurielles, « L’Intelligence Artificielle : un risque de discrimination dans le recrutement », consulté le 28 novembre 2025, <https://www.soralia.be/accueil/lintelligence-artificielle-un-risque-de-discrimination-dans-le-recrutement/>
Gowling WLG, « Bill C-27: Timeline of developments », consulté le 2 décembre 2025, <https://gowlingwlg.com/en-ca/insights-resources/articles/2024/bill-c27-timeline-of-developments>
Haynes Law Firm, « AI in Hiring: Legal Risks under Ontario Human Rights Code », consulté le 29 novembre 2025, < https://www.thehayneslawfirm.com/employment-info/employment-law-blog/ai-in-hiring-legal-risks-under-ontarios-human-rights-code/>
Les Echos, « Quand le logiciel de recrutement d'Amazon discrimine les femmes », consulté le 28 novembre 2025, <https://www.lesechos.fr/industrie-services/conso-distribution/quand-le-logiciel-de-recrutement-damazon-discrimine-les-femmes-141753>
OHRC, « Principles for the Responsible Use of Artificial Intelligence », consulté le 30 novembre 2025, <https://www3.ohrc.on.ca/en/principles-responsible-use-artificial-intelligence>
Second Talent, « Top 100+ AI in Recruitment Statistics for 2025 », consulté le 29 novembre 2025, <https://www.secondtalent.com/resources/ai-in-recruitment-statistics/>
Whitten & Lublin Employment Lawyers, « Is AI Discriminating in Hiring? », consulté le 30 novembre 2025, <https://toronto-employmentlawyer.com/blog/human-rights-and-discrimination/is-ai-discriminating-in-hiring/?utm_source=direct&utm_medium=none>
[1] Bartoletti I. et Xenidis R., Conseil de l’Europe, Étude sur l’impact des systèmes d’intelligence artificielle, leur potentiel de promotion de l’égalité, y compris l’égalité de genre, et les risques qu’ils peuvent entraîner en matière de non-discrimination, Commission pour l’égalité de genre (GEC) et Comité directeur sur l’anti-discrimination, la diversité et l’inclusion (CDADI), 2023, p. 17
[2] Assofac, « CV sur Canva : attention aux pièges des ATS », consulté le 28 novembre 2025, <https://www.assofac.org/post/cv-sur-canva-attention-aux-pièges-des-ats>
[3] Second Talent, « Top 100+ AI in Recruitment Statistics for 2025 », consulté le 29 novembre 2025, <https://www.secondtalent.com/resources/ai-in-recruitment-statistics/>
[4] Fantino M., La digitalisation du recrutement dans le domaine des Ressources Humaines, HEG Genève, p. 14
[5] Netter E., La part de l’Homme et celle de la machine dans les décisions “ automatisées ”. Propositions pour une réécriture de l’article 22 du RGPD, Vanessa Barbé. Les algorithmes et le droit, Mare et Martin, p. 2
[6] Femmes Plurielles, « L’Intelligence Artificielle : un risque de discrimination dans le recrutement », consulté le 28 novembre 2025, <https://www.soralia.be/accueil/lintelligence-artificielle-un-risque-de-discrimination-dans-le-recrutement/>
[7] Les Echos, « Quand le logiciel de recrutement d'Amazon discrimine les femmes », consulté le 28 novembre 2025, <https://www.lesechos.fr/industrie-services/conso-distribution/quand-le-logiciel-de-recrutement-damazon-discrimine-les-femmes-141753>
[8] Id. 2
[9] Id. 3
[10] Directive 2000/78/CE du Conseil du 27 novembre 2000, art. 2, §2, b)
[11] Whitten & Lublin Employment Lawyers, « Is AI Discriminating in Hiring? », consulté le 30 novembre 2025, <https://toronto-employmentlawyer.com/blog/human-rights-and-discrimination/is-ai-discriminating-in-hiring/?utm_source=direct&utm_medium=none>
[12] Human Rights Code, RSO 1990, c H.19, s 5
[13] C. pén., art. 225-1 et 225-2, 5°
[14] C. trav., art. L. 1132-1
[15] OHRC, « Principles for the Responsible Use of Artificial Intelligence », consulté le 30 novembre 2025, <https://www3.ohrc.on.ca/en/principles-responsible-use-artificial-intelligence>
[16] Canadian Labour and Employment Law, « Artificial Intelligence, Real Consequences? Legal Considerations for Canadian Employers Using AI Tools in Hiring », consulté le 29 novembre 2025, < https://www.labourandemploymentlaw.com/2025/02/artificial-intelligence-real-consequences-legal-considerations-for-canadian-employers-using-ai-tools-in-hiring/>
[17] Bill C-27 (Digital Charter Implementation Act, 2022)
[18] Gowling WLG, « Bill C-27: Timeline of developments », consulté le 2 décembre 2025, <https://gowlingwlg.com/en-ca/insights-resources/articles/2024/bill-c27-timeline-of-developments>
[19] Personal Information Protection and Electronic Documents Act, SC 2000, c 5, s 4(1)
[20] Zuiderveen Borgesius F., Discrimination, intelligence artificielle et décisions algorithmiques, Conseil de l’Europe (Direction générale de la Démocratie), 2018 p. 18
[21] Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données
[22] Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (AI Act)
[23] Règl. (UE) 2024/1689 (AI Act), art. 6, §2 et annexe III, point 4, a)
[24] AI Act, art. 6, §2 et annexe III, point 4(a) ; art. 9, 10, 11, 15 et 16.
[25] RGPD, art. 22
[26] Règlement (UE) 2016/679 [2016] JO L 119/1, considérant 71
[27] CJUE, 1re ch., 7 déc. 2023, n°634/21, Schufa, EU:C:2023:957
[28] BC (PSERC) v BCGSEU [1999] 3 SCR 3
[29] Coco v AN Clark (Engineers) Ltd [1969] RPC 41 (Ch)
[30] Mobley v. Workday, Inc., U.S. District Court for the Northern District of California, No. 3:23-cv-00770-RFL