L’intelligence artificielle trouve son application dans le secteur des ressources humaines. Mais peut-être pas uniquement pour les tâches auxquelles vous pensez. Une étude récente menée par des universitaires américains suggère qu’un algorithme pourrait prédire votre succès professionnel et votre rémunération simplement en analysant votre photo de profil. Derrière cette promesse technologique se cache cependant un débat éthique profond sur le retour de théories que l’on pensait disparues.
Le « Photo Big Five » : quantifier la personnalité par l’image
Conduite par des universitaires américains, l’étude repose sur une base de données massive de 96 000 photos LinkedIn de diplômés de MBA. Les chercheurs ont utilisé une IA pour tenter d’extraire les « Big Five », cinq traits centraux de la personnalité humaine.
L’algorithme analyse les micro-expressions et la structure faciale pour évaluer :
- L’ouverture (curiosité, imagination)
- La conscience (organisation, discipline)
- L’extraversion (énergie, sociabilité)
- L’agréabilité (coopération, empathie)
- Le névrosisme (instabilité émotionnelle)
Selon les auteurs, ces traits « photographiques » corrèlent avec le niveau d’études, le salaire de départ et l’évolution de carrière avec une précision statistique comparable à des facteurs comme l’origine ethnique ou l’attrait physique.
VOIR AUSSI : Test de personnalité pour le travail : un outil clé pour optimiser les performances
Une méthodologie sous le feu des critiques
Malgré les chiffres avancés, la crédibilité de l’outil est largement contestée. L’algorithme utilisé est pointé du doigt comme une « pseudoscience blanchie par le machine learning ».
Le problème fondamental réside dans le fait que l’IA ne mesure pas la personnalité réelle de l’individu, mais l’interprétation que la société (et donc les données d’entraînement de l’IA) se fait d’un visage. En d’autres termes, l’algorithme ne détecte pas la compétence, mais encode et automatise des stéréotypes préexistants.Si les modèles de réussite historiques ont favorisé certains traits physiques, l’IA se contentera de reproduire ce biais, créant une prophétie autoréalisatrice où certains visages sont programmés pour réussir.
Le spectre de la phrénologie numérique
Cette approche rappelle la physiognomonie du XIXe siècle, une théorie qui prétendait déduire le caractère d’une personne à partir de la forme de son crâne ou de ses traits faciaux. Utilisée à l’époque pour justifier des discriminations raciales et sociales, elle fait aujourd’hui un retour discret sous une forme numérique.
Les chercheurs eux-mêmes admettent un malaise certain. S’ils publient ces travaux, ce n’est pas pour encourager l’usage de ces outils, mais pour alerter sur une réalité de terrain : des banques et des cabinets de recrutement utilisent déjà ces analyses lors d’entretiens vidéo. Documenter le fonctionnement de ces IA est, selon eux, le seul moyen de forcer un débat réglementaire nécessaire.
Vers un encadrement strict en 2026
Face à ces dérives potentielles, la législation commence à s’adapter. En ce début d’année 2026, plusieurs États américains ont pris les devants pour protéger les candidats.
Le Maryland impose désormais le consentement explicite pour toute utilisation de reconnaissance faciale ou d’analyse comportementale durant le recrutement. L’État de New York, quant à lui, exige des audits de biais annuels pour tous les outils d’aide à la décision automatisée utilisés par les entreprises.
L’enjeu est de taille : si la rémunération dépend d’un score attribué par une machine à un visage, le concept même de mérite et d’acquisition de compétences perd de son sens. La réussite ne serait plus le fruit d’un effort, mais d’une conformité esthétique validée par un calcul statistique.






