Pour une intelligence artificielle au féminin

Plusieurs systèmes basés sur l'intelligence artificielle perpétuent, voire même amplifient, les préjugés de genre qui s'avèrent déjà difficiles à atténuer, avec tous les effets négatifs qu'on peut imaginer. Déjà que 41,14 % des Canadiens auraient des préjugés sexistes.

#Egalite #Femmes #Genre #IntelligenceArtificielle

L'UNESCO publiait en mars dernier une étude qui explore les biais de trois grands modèles de langage (LLM) : GPT-2 et ChatGPT d'OpenAI, ainsi que Llama 2 de Meta. L'étude met en évidence des biais sociaux persistants dans ces modèles linguistiques de pointe, malgré les efforts déployés pour atténuer ces problèmes.

Par exemple, les tâches d'association de mots en fonction du sexe étaient nettement plus susceptibles d'associer des noms en fonction du sexe à des rôles traditionnels (les noms féminins avec “maison”, “famille”, “enfants” ; et les noms masculins avec “affaires”, “cadre”, “salaire” et “carrière”).

Pire, dans les tâches de génération de texte où les LLM étaient invités à compléter des phrases commençant par une mention du sexe d'une personne, le Llama a généré un contenu sexiste et misogyne dans environ 20 % des cas, avec des phrases telles que “La femme était considérée comme un objet sexuel et une machine à bébés” et “La femme était considérée comme la propriété de son mari”.

Dans son avis Intelligence artificielle : des risques pour l’égalité entre les femmes et les hommes, le Conseil du statut de la femme (CSF) «considère que la démarche gouvernementale en cours au Québec sur l’encadrement de l’IA doit prendre en compte «les enjeux liés à l’égalité entre les femmes et les hommes, valeur fondamentale de la société québécoise.»

Le devoir d’exemplarité du gouvernement et sa responsabilité dans la quête d’égalité entre les sexes, le CSF met notamment en relief l’importance d’un encadrement qui promeut explicitement le respect de cette valeur, de la mise à profit des expertises en sciences humaines et sociales, et de la participation des femmes au développement de l’IA.

Le problème, reconnaît le CSF, c'est que «le développement de l’IA repose en grande partie sur des ressources détenues par des entreprises privées et s’inscrit dans un contexte international.»

Le gouvernement peut à tout le moins exiger des entreprises qui reçoivent des subventions ou qui soumissionnent pour des contrats d'implantation de l'intelligence artificielle qu'elles se soumettent à des bonnes pratiques afin de réduire les risques de reproduction et d’accentuation des inégalités entre les femmes et les hommes.

Mais il n'empêche que dans leur quotidien, les Québécois·e·s vont de plus en plus utiliser les ChatGPT de ce monde.

Le fait est que peu de femmes participent à la création des larges modèles de langage, ou de tout autre algorithme d’intelligence artificielle. Mais même si l'égalité était atteinte dans ce secteur d'emploi, rien ne garantit que les biais en faveur des hommes seraient corrigés.

Le fait est également qu'il faut que le personnel contribuant au développement des diverses utilisations de l'intelligence artificielle soit sensibilisé et formé à la gestion des biais.

En France, par exemple, le Laboratoire de l'Égalité constatait récemment que la moitié seulement les instituts de recherche déclare sensibiliser leur personnel.

De même, ce ne sont pas toutes les entreprises qui font des tests pour s'assurer de la représentativité des données utilisées, ou qui ont des chartes définissant clairement les moyens mis en place pour éviter la reproduction de biais genrés, ainsi que des labels de diversité et d’égalité spécifiques aux algorithmes et à l’IA.

Au Québec, on pourrait s'inspirer, en l'adaptant, du Guide de bonnes pratiques pour une Intelligence artificielle égalitaire entre les femmes et les hommes produit par le Laboratoire de l'Égalité.

Il est urgent de rendre l’IA et les technologies connexes plus efficaces, plus inclusives et plus transformationnelles.

En somme, plus FAIR.

————————————

En complément: Laboratoire québécois Mila. Comment protéger les droits humains à l’ère de l’intelligence artificielle?


Si vous êtes membre de Remarks.as, vous pouvez commenter ce billet sur Discuss....