Tri plus rapide, promesse d’objectivité, candidatures passées au crible, beaucoup de temps de gagner…L’IA aime se présenter comme un miroir fidèle du recrutement. Encore faut-il vérifier ce qu’elle reflète vraiment.
À compter du 2 août 2026, le règlement européen sur l’intelligence artificielle franchit un cap important. Les règles applicables aux systèmes d’IA à haut risque visés à l’annexe III deviennent applicables, notamment dans le champ de l’emploi et du recrutement. Sont visés en particulier les outils utilisés pour publier des offres ciblées, filtrer des candidatures ou évaluer des candidats.
Car l’IA ne recrute pas seule. Elle reflète souvent moins un candidat « idéal » que les choix déjà inscrits dans l’organisation. Et parfois, elle les grossit avec tout les risques de discrimination à l’embauche que cela implique.
Le règlement impose donc de garder les yeux ouverts. En cas de non-conformité à l’usage de ces données, le reflet peut se payer cher : jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires annuel mondial pour les manquements relatifs aux systèmes d’IA à haut risque.
Certaines entreprises ont déjà commencé à se regarder en face. Albéa Tubes, fabricant d’emballages cosmétiques et pharmaceutiques, a signé un accord (avec la patte d’un ancien d’ærige) prévoyant par exemple un registre des systèmes d’IA, un contrôle humain et un dialogue social continu et transparent autour de ces outils. Une logique dans la prolongation de l’initiative française «DIAL-IA ».
Avant de vous laisser, petite liste pratique et utile pour anticiper : recenser les outils IA utilisés, auditer les critères de tri, former les équipes RH pour limiter les biais éventuels, associer le CSE et maintenir une vraie supervision humaine.
Parce qu’en recrutement, le sujet n’est pas seulement d’aller plus vite. C’est de savoir ce que l’on donne vraiment à voir.
Quand l’IA tend le miroir,
ærige aide à voir net.






