Midjourney, Chat GPT, DALL-E... Ces derniers temps, les logiciels d'intelligence artificielle ont défrayé la chronique. Les progrès extrêmement rapides dans ce domaine ont, en effet, permis de lancer des versions tests pour le grand public qui permettent de générer tout un texte ou une photo en quelques clics.

L'IA (intelligence artificielle), qui s'invite à Paris ce lundi 10 et mardi 11 février 2025 avec un Sommet mondial au Grand Palais qui lui est dédiée, soulève pourtant un certain nombre de questions car ces images ou ces contenus fabriqués sont aujourd'hui accusés de reproduire des stéréotypes sexistes.

L'IA à l'épreuve du male gaze

C'est ainsi que le 8 mars 2023, à l'occasion de la Journée internationale des droits des femmes, l'association #JamaisSansElles a mené une expérience édifiante : si l'on tape "PDG" sur Midjourney, le logiciel génère très vitre des dizaines de photos d'hommes blancs en costume assis à leur bureau. En revanche, si l'on tape "secrétaire", l'IA propose un panel de jeunes femmes sexy avec des lunettes, dont la poitrine est nettement mise en valeur par un chemisier près du corps...

D'autres exemples de biais ont ainsi été relevés par des chercheur·ses. Isabelle Collet, informaticienne et professeure à l'université de Genève, a ainsi souligné que lorsqu'on demande à Google "qu'est-ce qu'un écolier ?", on tombe sur des photos de filles et de garçons à l'école. En revanche, si l'on tape "qu'est-ce qu'une écolière ?" on se retrouve avec des photos érotisées de jeunes filles dans des tenues sexy. Et ainsi de suite.

Rien de diabolique pourtant dans les IA : codées par des humains, elles ne font en réalité que refléter les stéréotypes de ceux qui les programment. Natacha Quester-Séméon, directrice de l'association #JamaisSansElles, explique ce mécanisme : "Une intelligence artificielle fonctionne comme un agrégateur de données, sur le modèle des moteurs de recherche. Elle reproduit donc forcément les biais cognitifs de ceux qui les créent, c'est-à-dire les développeurs, qui sont en grande majorité des hommes."

L'IA reproduirait donc involontairement le male gaze, ce prisme de lecture du monde qui se veut universel mais répond en réalité à un imaginaire mental masculin. Natacha Quester-Séméon poursuit : "Nous avons remarqué que les femmes étaient cantonnées à certains rôles et invisibilisées concernant les postes de responsabilité. De manière générale, leurs représentations sont très souvent centrées autour de leur apparence physique et non de leur sérieux ou leur autorité."

Recruter plus de femmes dans l'informatique

Plus grave : les IA de recrutement, de plus en plus utilisées par les entreprises, défavoriseraient aussi les femmes. En 2015, Amazon a ainsi dû désactiver son logiciel dédié après s'être aperçu qu'il avantageait les hommes. En effet, au bout d'un an, le groupe a constaté que les CV de femmes étaient systématiquement moins bien notés ou écartés.

Un phénomène qui a conduit la Fondation des Femmes, Femmes Ingénieures et l'ONG Global Witness à porter plainte auprès de la Commission nationale de l'informatique et des libertés (CNIL) contre Facebook pour biais sexistes des algorithmes. D'après un test mené par Global Witness, pour un poste de secrétaire, 92 % de femmes sont ainsi ciblées, et 85 % d'hommes pour un poste de pilote de ligne...

Explications : presque tous les programmateurs sont des hommes et ils s'appuient sur des données massivement "phallocentrées" depuis la création d'Internet, avec peu d'informations concernant les femmes. Aude Bernheim et Flora Vincent, chercheuses et autrices de L'Intelligence artificielle, pas sans elles ! (Éd. Belin) parlent ainsi d'un "gender data gap" (un fossé dans les données de genre). À la recherche "écrivain", Google Images ne propose ainsi que 26 % d'images féminines quand 56 % des auteurs sont des femmes, notent-elles. Dès lors, l'une des solutions serait de développer la mixité dans l'informatique.

12 % des salariés dans l'IA sont des femmes

Dans les années 70, les femmes représentaient en effet 30 % du secteur. Mais dès les années 80, leur présence a commencé à décroître jusqu'à ne représenter aujourd'hui que 12 % des salarié·es dans le domaine de l'IA.

Flora Vincent défend l'instauration de quotas. Selon elle, il faudrait 30 à 40 % de femmes à des postes de développement pour changer les mentalités. Mais avant d'atteindre cet objectif, il est nécessaire de reprogrammer les algorithmes. Pour la chercheuse, "l'égalité, ça s'encode ! On peut tout à fait demander aux IA de recrutement de sélectionner davantage de femmes, ou de proposer des salaires égaux quel que soit le sexe. C'est une question de volonté politique".

Un changement de regard ambitieux mais nécessaire. Souvenons-nous de Marie Curie qui, à un journaliste qui demandait ce que ça faisait de vivre avec un génie, répondait : "Allez donc demander à mon mari !".

Ce décryptage a été initialement publié dans le magazine Marie Claire numéro 852, daté septembre 2023.