Date de la conférence : le jeudi 25 mai à 11h
Les recruteurs sont susceptibles de prendre en compte des critères autres que les qualifications objectives requises, souvent sans même s’en rendre compte. C’est ce qu’on appelle les « préjugés inconscients » ou encore « biais cognitifs ».
De nombreuses études ont confirmé qu’en RH, les préjugés inconscients sont un facteur important de la répartition inégale des opportunités et de la diminution de la diversité sur le marché du travail.
L’Intelligence Artificielle peut comporter, voire amplifier des biais
Il est possible de limiter l’accès de l’IA aux données soumises à la protection contre les discriminations, mais l’IA fait des liens et peut propager des biais qui compromettent l’équité (sous-représentation dans la catégorie recherchée, parsing de mauvaise qualité induisant des erreurs…)
Qu’est-ce qu’un usage responsable de l’IA selon Textkernel ?
Chez Textkernel, nous mettons en œuvre une stratégie pour éviter les biais de l’IA dès la phase de conception des projets de nos clients.
Sommaire :
- IA correctement supervisée,
- des algorithmes transparents,
- notre algorithme de classement des résultats favorise la diversité,
- pas de boîte noire, le recruteur garde le contrôle total.
Utilisée de manière responsable, l’IA peut se révéler moins biaisée que les humains, améliorer l’égalité des chances et la diversité, et rendre les décisions d’embauche pragmatiques et transparentes.
Pour vous inscrire, cliquez ici
Intervenants
Juliette Conrath, Group Product Manager – AI & UX
Alicia Krebs, R&D Team Lead
Patrick Bonnin, Business Development Manager