Les algorithmes, loin d’être neutres, continuent de présenter des biais sexistes en 2023.

Ce phénomène s’explique principalement par l’apprentissage de données historiquement biaisées en faveur des hommes. Ainsi que par le manque de diversité dans les équipes de développement en intelligence artificielle (IA).

Le cas d’Amazon : un exemple marquant

En 2014, Amazon a testé un logiciel d’IA pour trier les CV des candidats. Ce logiciel, basé sur une base de CV majoritairement masculins reçus sur dix ans, a systématiquement écarté les CV de femmes, en particulier pour des postes de développeurs ou liés à des compétences techniques​​. 

Malgré des tentatives de correction, le problème persistait, obligeant Amazon à abandonner ce projet en 2017.

La persistance du sexisme dans le numérique

Selon Aurélie Jean, docteure en sciences et experte en éthique des algorithmes, et Mathilde Saliou, journaliste spécialiste du numérique, la tendance au sexisme est un problème récurrent dans le monde digital et révélateur d’un problème plus large.

Des algorithmes de reconnaissance faciale aux algorithmes publicitaires, les femmes sont souvent traitées de manière injuste ou stéréotypée​​. 

Cette situation est aggravée par la sous-représentation des femmes dans le domaine de l’IA et des STEM. STEM se réfère à science, technologie, ingénierie et mathématiques. 

En 2019, seulement 12 % des chercheurs en IA étaient des femmes​​.

Les racines du problème

Ces discriminations résultent de deux facteurs principaux : les jeux de données biaisés et le manque de diversité parmi les développeurs. Les algorithmes, conçus majoritairement par des hommes, reflètent leurs perspectives et biais.

Ainsi, les données historiques, souvent déséquilibrées en termes de genre, influencent la façon dont les algorithmes perçoivent et catégorisent les gens.

Ces problèmes peuvent avoir un impact sur la société

Ces biais algorithmiques ne sont pas seulement des problèmes techniques, mais reflètent et amplifient les inégalités de genre dans la société. Ils représentent une menace pour la démocratie et l’équité. En effet, ils peuvent perpétuer le cyberharcèlement et la discrimination dans des espaces numériques de plus en plus influents.

Des assistants virtuels tels qu’Alexa d’Amazon, Cortana de Microsoft et Siri d’Apple ont été conçus avec des voix féminines par défaut et des personnalités « soumises », reflétant des attributs féminins stéréotypés​​. 

De plus, l’humanisation des assistants virtuels et des robots peut conduire à la déshumanisation et à l’objectification des femmes​​.

La solution : vers une IA éthique et sans biais de genre

Pour lutter contre ces biais, il est essentiel d’adopter des pratiques diversifiées dans la création d’algorithmes, de rendre transparent leur fonctionnement, de tester et d’optimiser les données pour éliminer les biais, et d’adopter une gouvernance algorithmique rigoureuse.

Aurélie Jean souligne l’importance de construire des algorithmes par et pour tous, afin d’assurer une représentation équitable et une technologie plus éthique.

Les algorithmes sont fortement influencés par les données qu’ils utilisent. Ces données peuvent refléter les hypothèses et préjugés de leurs programmeurs. 

Par conséquent, il est nécessaire d’accroître la participation des femmes dans l’éducation et les carrières STEM, y compris en IA. 

Des pratiques prometteuses, telles que l’utilisation d’IA pour éclairer les processus de recrutement sensibles au genre, sont également en développement​​.