Recruter avec l’IA : quelles précautions prendre ?

Le coin des étudiants, Les outils

L’intelligence artificielle (IA) s’impose aujourd’hui comme un outil incontournable dans la gestion des ressources humaines (RH), notamment dans les processus de recrutement. Cette évolution technologique, si elle offre des opportunités indéniables en matière d’efficacité et d’objectivité, soulève également de nombreux défis juridiques, au regard du droit du travail. L’encadrement de l’IA dans les secteurs RH et le recrutement s’articule autour de plusieurs axes : la protection contre la discrimination, la transparence des processus, la protection des données personnelles, l’information et la consultation des représentants du personnel, ainsi que l’adaptation du droit aux mutations technologiques.

IA et droit du travail : quel cadre juridique ?

À ce jour, la législation française ne propose pas de définition propre de l’intelligence artificielle. Toutefois, le règlement européen 2024/1689 (AI Act), adopté le 13 juin 2024, en fournit une définition normative. Il s’agit d’un « système automatisé conçu pour fonctionner à différents niveaux d’autonomie, pouvant faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit à partir des entrées reçues la manière de générer des sorties (prédictions, contenus, recommandations ou décisions) susceptibles d’influencer des environnements physiques ou virtuels ».

Cette définition s’applique pleinement aux outils utilisés dans le recrutement : tri automatisé des CV, présélection algorithmique, entretiens vidéo analysés par IA ou encore évaluation des performances.

L’IA dans le recrutement : l’affaire Amazon comme cas d’école

L’IA est perçue, à juste titre, comme un outil d’automatisation efficace, capable d’accélérer les traitements de candidatures, de fiabiliser les décisions ou de standardiser les critères d’évaluation. Cependant il faut retenir que son usage n’est pas neutre.

Un exemple emblématique illustre les dérives possibles : l’affaire Amazon. En 2014, l’entreprise américaine développait un outil d’aide au recrutement basé sur dix années de données internes. Le résultat de ce projet conduit à ce que l’algorithme favorise systématiquement les candidatures masculines et pénalise celles mentionnant des activités associées aux femmes, comme les universités féminines ou les termes liés à des initiatives pour l’égalité. Ce biais, hérité des données historiques, conduit Amazon à abandonner le projet dès 2017 (The Guardian : Amazon ditched AI recruiting tool that favored men for technical jobs | Amazon | The Guardian).

Cet exemple rappelle qu’un système perçu comme objectif peut reproduire, voire amplifier, des biais sociaux existants.

Non-discrimination : une obligation inchangée pour l’employeur

Le Code du travail encadre strictement le processus de recrutement. L’article L. 1132-1 interdit toute discrimination fondée sur 25 critères légaux (sexe, origine, âge, état de santé, opinions, etc.). En cas de contentieux, l’article L. 1134-1 impose à l’employeur de justifier que sa décision repose sur des éléments objectifs, étrangers à toute discrimination.

L’usage d’un outil algorithmique ne saurait exonérer l’employeur de cette obligation. Bien au contraire, il renforce la nécessité de vérifier en amont la fiabilité et la neutralité du système utilisé. La responsabilité de l’entreprise peut être engagée tant sur le plan civil que pénal en cas de manquement.

Information-consultation du CSE : une obligation renforcée

L’introduction d’un système d’IA dans l’entreprise, notamment s’il est utilisé pour des finalités RH sensibles (recrutement, évaluation, promotion, licenciement), constitue un projet modifiant l’organisation du travail. À ce titre, elle relève du champ d’application de l’article L. 2312-8 du Code du travail.

Le Comité social et économique (CSE) doit ainsi être informé et consulté sur les technologies ayant un impact sur la gestion ou la marche générale de l’entreprise.

Le règlement AI Act renforce cette exigence en imposant une information et consultation préalable des représentants des travailleurs avant tout déploiement d’un système d’IA à haut risque sur le lieu de travail.

L’IA comme mutation technologique : quel impact sur l’emploi ?

L’introduction d’un outil d’IA peut être qualifiée de mutation technologique, au sens de l’article L. 1233-3 du Code du travail. Si cette transformation entraîne une suppression ou une modification substantielle des postes, elle peut justifier un licenciement économique.

Mais cette mesure ne peut intervenir qu’en dernier recours. L’employeur demeure tenu de rechercher toutes les possibilités de reclassement et d’assurer une adaptation des salariés aux évolutions technologiques (article L. 1233-4).

Droit européen et international : vers une gouvernance éthique de l’IA

Le règlement AI Act impose un cadre normatif structuré pour les systèmes à haut risque dans le domaine de l’emploi. Il prévoit des obligations de transparence, d’intervention humaine, d’évaluation des risques et de recours effectif.

En complément, la convention-cadre du Conseil de l’Europe du 5 septembre 2024 introduit des garanties fondamentales dans l’usage de l’IA : respect des droits de l’Homme, non-discrimination, protection de la vie privée, supervision indépendante.

En définitif : une vigilance accrue s’impose

L’IA constitue une opportunité de modernisation des pratiques RH, mais elle doit être utilisée dans un cadre strictement maîtrisé. Les employeurs doivent :

  • Auditer les outils d’IA utilisés ou envisagés,
  • S’assurer de leur conformité au RGPD et au droit du travail,
  • Associer les représentants du personnel,
  • Et surtout, conserver une capacité de contrôle humain, condition indispensable à toute décision juste et légale.

L’entrée en vigueur du texte européen :  l’AI Act incite à anticiper, former, et structurer une gouvernance responsable de l’IA en entreprise.

TOP
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.