La justice américaine veut disséquer l’IA de Workday 💥
Aux États-Unis, un procès oppose Workday à un candidat qui l’accuse d’avoir été écarté automatiquement en raison de son âge.
Le sujet : HiredScore, une IA utilisée par certaines entreprises clientes de Workday pour trier les candidatures. Elle serait biaisée et réduirait le score des candidats de plus de 40 ans.
Le juge a demandé à Workday de fournir la liste complète des employeurs qui ont activé ces fonctionnalités.
Pourquoi c’est important ?
Parce que le scoring algorithmique peut être utile… à condition qu’il soit explicable.
Un feu vert 🟢 ou rouge 🔴 sans justification, c’est une boîte noire : impossible de vérifier si la décision repose sur des critères légitimes ou sur des biais historiques.
Chez WeLoveDevs, on a connu le même défi.
Au départ, nos recruteurs voyaient juste le nom et le prénom d’un candidat. Le taux d’ouverture était biaisé.
Nous avons ajouté un code couleur — mais toujours accompagné d’une explication claire (expérience, localisation, technos).
Et jamais de score sans données validées par un humain.
Un score n’est pas dangereux parce qu’il est faux.
Il l’est quand personne ne peut expliquer pourquoi il existe.
Et j'en appelle à l'industrie. En 2025, on intègre des LLMs partout dans les jobboard et les ATS. C'est génial, mais n'en faites pas des boites noires. Demandez toujours à votre prompt de justifier son score 🖤