Comment l'IA aurait-elle pu échapper au patriarcat ? Depuis son apparition, l'intelligence artificielle a fait l'objet de nombreuses études mettant le doigt sur les biais sexistes qu'elle véhicule. Peu à peu, le nombre d'utilisateur.trice.s augmentant et alimentant les algorithmes, on observe une petite (mais encore trop lente) amélioration, nous explique Ariane Bernard.
L'IA est-elle sexiste ? La réponse est "oui", selon plusieurs études menées par les experts et universités au cours de ces dernières années.
Les intelligences artificielles sont des programmes conçus par des hommes et... quelques femmes. Il y aurait entre 10 % et 20 % de femmes dans ce secteur, selon le collectif féministe "Jamais sans elles" qui, à l'occasion du 8 mars 2023, lançait une campagne dans les médias et sur les réseaux sociaux pour dénoncer les biais sexistes de l'IA.
Pour développer une “intelligence artificielle”, les ingénieurs et les experts en datascience doivent la nourrir d’une énorme quantité d’informations, afin que le programme apprenant développe par lui-même une forme de connaissance ou de représentation du sujet sur lequel il devra travailler", lit-on sur le site du mouvement féministe, qui agit auprès des entreprises et des institutions en faveur de la mixité dans tous les domaines de la société.
ChatGPT est capable de répondre en langage courant à toutes les questions que l'on peut se poser, quand Midjourney, Stable Diffusion et DALL-E permettent de générer des images à partir d’une description. Oui mais... "Les algorithmes des intelligences artificielles reproduisent les biais de leurs concepteurs", rappelle le site féministe. Ces biais sont aujourd’hui étudiés dans de nombreux domaines – médecine, emploi, marketing... – car "leurs conséquences sont alarmantes. Biais automatique du langage, bulles algorithmiques, l’IA, par son fonctionnement même d’apprentissage, renforce des biais de sexe, de genre, de culture, d’origine et de classe sociale".
L'IA générative permet de créer en quelques secondes des textes, des photos, des sons ou des vidéos, en réponse à une requête d'un.e utilisateur.trice, pour un large éventail d'utilisations.
Le terme d'intelligence artificielle est d'origine plus ancienne que ce que l'on croit, et remonte au début du XXe siècle. On l'attribue à Marvin Minsky, un scientifique américain selon lequel il s'agit d'une "science qui permet aux machines de faire ce qui serait qualifié d'intelligent si cela était fait par des êtres humains", rappellait Isabelle Bloch, enseignante chercheuse informatique, au CNRS, et à l'université de la Sorbonne lors d'une conférence organisée à la cité des Sciences à Paris en juin 2023, en partenariat avec le Centre Hubertine Auclert.
Les "pères fondateurs", ici lors de la Conférence de Darthmouth (Etats-Unis) en 1956, considérée comme l'acte de naissance de l'intelligence artificielle en tant que domaine de recherche autonome. Que des hommes...
Dans une étude réalisée en 2017, une chercheuse de l’université de Washington constate que le logiciel de reconnaissance vocale de Google est moins efficace pour traiter les voix féminines. Une différence qui, selon elle, pourrait s’expliquer par le fait que le logiciel serait moins performant pour analyser des voix aiguës. Le site d'info québécois sciencepresse cite cette autre étude réalisée en 2017 qui dresse ce constat : "La vectorisation de mots associe généralement les femmes à des mots concernant la famille et les arts alors qu’elle associe les hommes à des mots en lien avec la carrière, la science et la technologie".
Autre exemple : en 2014, Amazon avait été pointé du doigt en raison du logiciel utilisé par l'entreprise pour recruter ses employés. Sa sélection de CV avait nettement privilégié les profils masculins. "Le biais négatif envers les femmes reflétait les tendances d’embauche de la compagnie dans les années précédentes".
Alors quel est l'état des lieux aujourd'hui et comment faire que l'IA soit plus inclusive ?
Entretien avec l'experte en IA, Ariane Bernard.
Ariane Bernard est une experte du numérique spécialisée dans les outils de gestion et de diffusion de contenus. Elle a été directrice du numérique au Parisien et a passé quatorze ans au New York Times. Elle fournit actuellement des services de conseil en produits dans le domaine des CMS et de l'analyse aux entreprises de médias et de technologie ; elle est aussi cheffe de projet pour les données à l'International News Media Association (INMA).
Terriennes : l'IA est accusée depuis ses débuts de propager, ou de reproduire, des biais sexistes. Ce constat fait, est-ce que ça va mieux aujourd'hui ?
Ariane Bernard : c'est toujours compliqué de répondre de façon générale, nous ne pouvons que mesurer de manière anecdotique la qualité des réponses d'un LLM (les large language models sont des réseaux neuronaux utilisant d'énormes volumes de données pour comprendre le langage humain, selon la définition de Datascientest.com, ndlr), à mesure que les questions sont posées. C'est sûr que de passer à des LLM qui pendant longtemps étaient utilisées uniquement par des experts, surtout masculins, a été une source de problèmes. On repère moins, dans une population homogène la diversité des problèmes, car la population homogène a tendance à poser des questions et à faire des usages qui sont eux-mêmes homogènes.
L'un des soucis dans le débiaisage des IA, c'est de débiaiser des scénarios plus complexes, où le biaisage est plus caché et où la façon dont la réponse est construite est aussi moins claire. Ariane Bernard
À partir du moment où les LLM sont en accès public et utilisés dans une diversité de contextes, d'entreprises et de pays, avec des sensibilités d'utilisateurs différentes, on a plus de chance de détecter les éventuels biais de ces intelligences artificielles. Et c'est là, lorsque les biais sont détectés, que la solution qui passe par des renforcements – une façon de faire surrapprendre à une IA sur la base d'un contenu dont on s'aperçoit qu'il pouvait être sous-représenté dans son apprentissage, à partir du moment où on est en mesure de détecter la nature de ce qui a été biaisé – que la possibilité de renforcement commence à exister. Mais il y a évidemment des sujets qui sont plus faciles à débiaiser que d'autres.
Pourtant, notamment dans les images, les biais sexistes persistent...
Montrer des scientifiques dans un laboratoire, il y a encore trois ou quatre ans, pouvait être biaisé car on y voyait des hommes en train d'utiliser des équipements de laboratoire. Cela s'est beaucoup amélioré parce que ce sont des scénarios très basiques qui ont pu être détectés très vite, et très vite on a pu comprendre la nature du problème. La nature des images qui étaient consommées étaient très parcellaires.
Maintenant, on est dans des phases basée sur les LLM, donc l'intelligence générative, qui sont toujours plus complexes que justes : "Je lui ai demandé de me présenter des professeurs des écoles, il ne m'a montré que des femmes", où "Je lui ai demandé de montrer des infirmières, il ne m'a montré que des femmes". Pour des scientifiques : "Il ne m'a montré que des hommes". On est déjà largement en train de dépasser ça. Mais tout ça parce que les scénarios sont un peu plus complexes, ce qui ne les rend pas moins intéressants, et à la limite plus pervers, que n'importe qui d'un peu sensé qui réalise que les professeurs des écoles ne sont pas tous des femmes, et les scientifiques tous des hommes. Ça, à la limite, l'essentiel de la population le sait déjà. L'un des soucis dans le débiaisage des IA, c'est de débiaiser des scénarios plus complexes, où le biaisage est plus caché et où la façon dont la réponse est construite est aussi moins claire.
"IA, construis-moi un conte de fée pour une petite fille", je vais avoir une surreprésentation de fées, de princesses, etc... Alors que je pourrais aussi avoir à faire à Merlin l'Enchanteur. Ariane Bernard
Pouvez-vous nous nous citer des sujets plus difficiles à "débiaiser" justement ?
Les exemples où l'on se dit qu'il y a eu biaisage sont des choses plutôt anodines. On a tendance à ne même pas les questionner. Par exemple si on dit "IA, construis-moi un conte de fée pour une petite fille", je vais avoir une surreprésentation de fées, de princesses, etc... Alors que je pourrais aussi avoir à faire à Merlin l'Enchanteur, qui a plutôt tendance à sortir pour les petits garçons. Ce ne sont pas forcément des scénarios reproduisant sciemment des clichés affreux, mais qui les fonds de biaisage de notre société que beaucoup de gens absorberaient sans se poser de questions, en se disant "mais ce conte de fées est charmant !"
Comment corriger le tir de ces biaisages ?
Dans tous ces sujets de biaisage de l'IA, il y a une partie qui tient à la construction du modèle, c'est-à-dire ce sur quoi il se base, comment il consomme. Et puis il y a la façon dont le modèle lui-même est construit, dont il est évidemment toujours largement propriétaire, sauf dans les modèles opensource, qui sont transparents. Mais même dans ce cas, moi, par exemple, je serai bien incapable d'aller lire les notes de production d'un LLM opensource pour comprendre comment ce modèle a été construit.
Comme beaucoup de problèmes complexes, dont on cherche à améliorer le résultat, il faut agir à plein d'endroits : en amont ce qu'il consomme, et en aval, le modèle lui-même. Quand on essaye d'améliorer la sécurité des véhicules, on cherche à améliorer la qualité de la route, de l'enseignement de la conduite, des freins, des airbags, etc... Toutes ces choses participent à une amélioration parfois très visible, et parfois plus subtilement utile.
On s'en sortirait mieux s'il y avait plus de femmes ! Mais en soi, n'importe quelle forme de diversité, en général, améliore la qualité de la solution. Ariane Bernard
La solution pour que l'IA soit moins "sexiste", ce serait qu'il y ait plus de femmes derrière ses algorithmes ?
On s'en sortirait mieux s'il y avait plus de femmes ! Mais n'importe quelle forme de diversité, en général, améliore la qualité de la solution. C'est juste que le monde est suffisamment complexe pour que la diversité même des perspectives, à la fois empêchent de jamais détecter certains problèmes et aussi nous permettent une forme de créativité qui est littéralement le fait de la diversité des personnes autour de la table.
Donc plus de femmes, mais aussi plus de personnes non occidentales et plus de personnes avec des expériences de vie d'un niveau économique qui peut varier. En général, dans ce genre d'industrie, on trouve des personnes qui viennent d'un milieu privilégié. Donc toutes ces choses-là, puisqu'on cherche à créer des technologies généralistes pour la société entière, sont logiquement utiles et désirables pour mieux comprendre le problème et évaluer la solution.