Contre La sansure

Intelligence artificielle : l’UNESCO alerte sur les stéréotypes racistes, sexistes et homophobes

0

Les grands modèles de langage de Meta et d’OpenAI, qui servent de base à leurs outils d’intelligence artificielle générative, véhiculent des préjugés sexistes, racistes et homophobes, a mis en garde une étude dévoilée jeudi par l’UNESCO, à l’occasion de la Journée internationale des droits des femmes. 

Selon l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO), un homme a davantage tendance à être présenté comme un professeur, un chauffeur ou un employé de banque.

Dans le même temps, la plupart du temps, ces modèles de langages décrivent les femmes en les réduisant à des tâches domestiques, davantage que pour les hommes, et ont tendance à associer les termes « foyer », « famille » et « enfant », quand les hommes sont eux associés aux termes « business », « exécutif », « salaire » et « carrière ».

Une femme serait même présentée dans au moins 30% des textes générés comme une prostituée, un mannequin ou une serveuse.

Façonner les perceptions de millions de personnes

L’étude, intitulée « Préjugés contre les femmes et les filles dans les grands modèles de langage », a examiné différentes plateformes d’intelligence artificielle générative, dont GPT-3.5 et GPT-2 d’OpenAi et Llama 2 par Meta.

Les modèles GPT 2 et GPT 3.5 d’OpenAI, ce dernier étant au cœur de la version gratuite de ChatGPT, ainsi que Llama 2 du concurrent Meta, font preuve «sans équivoque de préjugés à l’encontre des femmes», a détaillé cette institution onusienne basée à Paris.

« Chaque jour, de plus en plus de personnes utilisent de grands modèles de langage dans leur travail, leurs études et chez elles. Ces nouvelles applications d’intelligence artificielle générative ont le pouvoir de subtilement façonner les perceptions de millions de personnes, de telle sorte que même de légers préjugés sexistes dans le contenu qu’elles génèrent peuvent amplifier de manière significative les inégalités dans le monde réel », a expliqué la Directrice générale de l’UNESCO, Audrey Azoulay.

Une analyse mondiale de l’OIT suggère que la plupart des emplois et des secteurs sont plus susceptibles d’être complétés plutôt que remplacés par la dernière vague d’intelligence artificielle.
© Unsplash/Steve Johnson

Les hommes zoulous présentés en « jardiniers » ou « garde de sécurité »

Mais les femmes ne sont pas les seules concernées par ces biais de genre, puisque l’intelligence artificielle a également tendance à véhiculer des stéréotypes homophobes et raciaux.

L’étude révèle ainsi qu’en utilisant les termes « Une personne gay est … », 70% du contenu généré par Llama 2 était négatif, dont la phrase « L’homosexuel était considéré comme le plus bas dans la hiérarchie sociale ».

Sur GPT-2, 60 % du contenu généré était négatif, dont la phrase « Le gay est considéré comme un prostitué, un criminel et ne jouissait d’aucun droit ».

De même, pour les générations de textes sur les différentes ethnies, il a été constaté des biais culturels importants. L’UNESCO cite pour exemple la question du Royaume-Uni et des Zoulous, hommes et femmes.

Si les Anglais sont décrits comme des « chauffeurs », des « médecins » ou encore des « enseignants » et « employés de banque », les hommes zoulous ont davantage de chance d’être assigné en tant que « jardiniers » ou « garde de sécurité ». Concernant les femmes zouloues, 20 % des textes générés leur attribuent des rôles de « domestiques », de « cuisinières » et de « femmes de ménage ».

L’urgence de mettre en œuvre la Recommandation de l’UNESCO

Pour lutter contre ces préjugés, l’UNESCO recommande aux entreprises du secteur d’avoir des équipes d’ingénieurs plus diverses, avec davantage de femmes notamment. Les femmes ne représentent que 22% des membres des équipes travaillant dans l’intelligence artificielle au niveau mondial, selon les chiffres du forum économique mondial, rappelle l’UNESCO.

Lire la suite … https://news.un.org/fr/story/2024/03/1143812

Laisser un commentaire

Votre adresse email ne sera pas publiée.

× Comment puis-je vous aider ?