Aller au contenu principal Activer le contraste adaptéDésactiver le contraste adapté
Plus de 40000 produits accessibles à 0€ de frais de courtage
Découvrir Boursomarkets
Fermer

L'IA, un outil d'aide au recrutement qui nécessite des garde-fous
information fournie par Boursorama avec AFP 24/01/2024 à 08:35

( AFP / SEBASTIEN BOZON )

( AFP / SEBASTIEN BOZON )

Rédiger une offre d'emploi ou un CV en quelques secondes, mieux orienter les candidats: l'intelligence artificielle (IA) bouleverse le recrutement, mais présente des risques de discrimination lorsqu'elle est utilisée comme outil de sélection, selon les experts.

Les IA génératives, qui produisent des textes ou des images, "sonnent la mort des lettres de motivation et c'est une excellente chose", estime Charles Chantala, directeur commercial d'Indeed, la première plateforme privée d'offres d'emploi en France.

L'IA "donne la possibilité à n'importe qui de raconter n'importe quelle histoire, ça remet tout le monde sur un pied d'égalité", explique ce responsable.

Car l'IA générative permet aux recruteurs d'améliorer la rédaction des offres et aux candidats de rédiger des CV et des lettres plus attractives, fait valoir David Beaurepaire, directeur délégué d'Hellowork, deuxième acteur privé sur le marché français.

"Du côté des recruteurs il y a la possibilité d'enrichir les offres d'emploi qui très souvent manquent un peu d'éléments de contexte", ajoute-t-il.

L'IA permet aux entreprises de "rédiger beaucoup plus rapidement une offre d'emploi", abonde Paul Bazin, directeur général adjoint de France Travail (ex-Pôle emploi) en charge de l'offre de services.

L'opérateur public, numéro un des offres d'emploi en France, a recours depuis 2018 à l'intelligence artificielle pour "personnaliser le parcours" des demandeurs d'emploi (mieux cibler les offres notamment), accélérer les recrutements et faciliter la tâche de ses conseillers avec notamment un logiciel de tri des courriels permettant d'éviter les erreurs d'adressage, détaille ce dirigeant.

Les outils informatiques de France Travail permettent aussi de repérer les offres qui seront difficiles à pourvoir et celles qui contiennent des mentions illégales, notamment discriminatoires.

Selon Charles Chantala, le recours à l'IA ouvre en outre des opportunités "pour les candidats qui historiquement ont été discriminés" leur permettant d'être repérés sur la base "de données complètement objectives".

- Biais de sélection -

Mais l'IA, qui se nourrit de données du passé et du présent pour faire des choix et des recommandations, peut aussi reproduire ou amplifier des discriminations, si elle est utilisée comme moyen de sélection.

"Nous construisons des IA qui se basent sur un historique qui est loin d'être parfait", reconnaît M. Chantala.

Si une IA cherche qui sont les managers en poste, "elle va se retrouver avec une majorité d'hommes blancs de plus de 40 ans et va en déduire qu'il faut qu'elle reprenne des hommes de plus de 40 ans", explique David Beaurepaire.

Pour un emploi donné, "dans un monde où il y a un écart de salaire entre les femmes et les hommes sur le métier en question, l'IA va faire des recommandations qui, si l'on n'y prend pas garde, vont soit entériner les discriminations", soit décourager la candidate en lui disant "+vous avez le risque de ne pas pouvoir être recrutée sur ce type de poste+", reconnaît également M. Bazin.

Aussi Pôle emploi, devenu France Travail au 1er janvier, s'est doté d'un comité d'éthique qui "rentre dans le détail du fonctionnement des algorithmes et nous invite à faire très attention à ce type de biais pour les réduire", explique le responsable.

Hellowork dit pour sa part ne pas utiliser d'IA au fonctionnement opaque dans ses algorithmes de "recommandations d'offres", mais seulement des outils "développés en interne et sur lesquels nos équipes de datascience sont en capacité d'expliquer pourquoi tel ou tel profil a été recommandé et pourquoi pas tel autre".

Quant aux recruteurs, font-ils confiance à l'IA? Plus qu'ils ne veulent bien le reconnaître: selon une enquête présentée en septembre par le ministère du Travail, deux universitaires Alain Lacroux et Christelle Martin-Lacroux ont découvert à leur grand étonnement que ceux qui devaient choisir entre les candidats "disaient qu’ils ne faisaient pas confiance aux algorithmes, mais ils acceptaient de se conformer aux recommandations algorithmiques, même incorrectes".

0 commentaire

Signaler le commentaire

Fermer