Comment les algorithmes contribuent à l’effacement des femmes

Copyright de l’image ThisIsEngineering, gracieuseté de Pexels

En septembre 1995, les Nations Unies se réunissaient à Beijing, en Chine, pour la quatrième conférence mondiale sur les femmes. À cette occasion, 189 États membres ont réaffirmé leur engagement envers la Convention sur l’élimination de toutes les formes de discrimination à l’égard des femmes (CEDAW) en élaborant et en ratifiant ce qui est considéré comme « le plan le plus progressiste jamais élaboré pour faire progresser les droits des femmes »[1], à savoir la Déclaration et la plateforme d’action de Beijing. Les femmes et les médias figuraient parmi les douze objectifs stratégiques essentiels nommés. Reconnaissant l’impact puissant que les technologies de l’information et des communications auraient sur nos vies au 21e siècle, les délégués à la conférence en ont tenu compte. Le Programme d’action affirmait un engagement à « accroître la participation et l’accès des femmes à l’expression et à la prise de décision dans et par les médias et les nouvelles technologies de communication »[2]. Vingt-sept ans plus tard, cette initiative humble et inspirée est menacée, et le Canada est un des responsables de sa disparition.

L’avenir des communications au Canada est sur le point de faire l’objet d’une mise à jour historique connue sous le nom de Projet de loi C-11, la Loi sur la diffusion en ligne, qui actualisera la Loi sur la radiodiffusion, vieille de 30 ans, pour y inclure le domaine numérique. Présentée comme une initiative visant à promouvoir le contenu canadien en ligne, cette loi permettra au gouvernement du Canada de contrôler la découvrabilité du contenu sur Internet au Canada, comme il le fait actuellement avec la télévision et la radio traditionnelles. Dans son libellé actuel, le Projet de loi C-11 accordera au Conseil de la radiodiffusion et des télécommunications canadiennes (CRTC) des pouvoirs réglementaires non précisés sur les radiodiffuseurs[3]. Malheureusement, les politiques énoncées dans le Projet de loi C-11 ne reconnaissent absolument pas le groupe le plus important, visible et marginalisé du pays : les femmes. Le 25 octobre 2022, le Sénat du Canada a adopté en deuxième lecture le Projet de loi C-11, la Loi sur la diffusion en ligne, faisant ainsi un pas de plus vers l’effacement des femmes et établissant un dangereux précédent pour les lois nationales et étrangères.

Les 7 et 8 février 2019, Ottawa était l’hôte de la Rencontre internationale sur la diversité de contenu à l’ère numérique. Organisée conjointement par le ministère du Patrimoine canadien et la Commission canadienne pour l’UNESCO, la réunion a accueilli 72 participants. L’experte universitaire Mira Burri y a proposé des actions pour améliorer la découvrabilité des contenus nationaux à travers deux concepts principaux : la gouvernance des algorithmes et la gouvernance par les algorithmes[4]. Selon le rapport final, « la gouvernance des algorithmes (…) impliquerait des réglementations de marché typiques ainsi que diverses initiatives d’autorégulation et de co-régulation en fonction des questions spécifiques visées; et la gouvernance par des algorithmes, c’est-à-dire des interventions ciblées avec des outils qui favoriseraient l’exposition à la diversité de contenu en augmentant la visibilité et la découvrabilité de certains types de contenus grâce à des processus éditoriaux réalisés par des algorithmes. »[5]

Copyright de l’image Negative Space, gracieuseté de Pexels

Le Projet de loi C-11 du Canada discrimine les femmes de trois façons différentes :

le manque d’inclusion explicite, les biais algorithmiques et les déséquilibres de l’industrie.

Conformément aux conseils de Professeure Burri, le Projet de loi C-11 propose l’application d’algorithmes pour améliorer la découvrabilité de contenu, géré par Patrimoine Canada, et pour soigner notre image nationale. Selon la dernière mise à jour du Sénat du Canada, « le système canadien de radiodiffusion « devrait […] répondre aux besoins et aux intérêts de tous les Canadiens, y compris les Canadiens issus de communautés racialisées et les Canadiens de diverses origines ethnoculturelles, de statuts socioéconomiques, de capacités et de handicaps divers, d’orientationssexuelles, d’identités et d’expressions sexuelles et d’âges différents » »[6]. Cependant, tout en revendiquant l’inclusion de « tous les Canadiens », ce projet de loi a omis les mots « femmes » et « sexe(s) », ce qui aura sans aucun doute des conséquences désastreuses sur les droits, les moyens de subsistance, la santé et le bien-être de générations de femmes et de filles au Canada, car il perpétue l’effacement des femmes.

Copyright de l’image Mikhail Nilov, gracieuseté de Pexels

Les algorithmes sont-ils discriminatoires à l’égard du sexe féminin? Oui, si leurs codeurs ou leurs ensembles de données le sont. 

Malgré la confusion fréquente entre les termes « sexe » et « genre », plusieurs rapports clés mettent en lumière les inégalités dans le domaine numérique.

Les réglementations algorithmiques proposées par la Loi sur la diffusion en ligne pourraient être beaucoup plus dommageables pour les femmes qu’en négligeant simplement nos priorités. Les algorithmes ne sont pas neutres; ils sont intrinsèquement biaisés en raison de la nature de leurs concepteurs humains. Les algorithmes reflètent les biais de leurs codeurs et des ensembles de données sur lesquels ils sont fondés. Comme des études récentes de l’Alan Turning Institute l’ont reconnu dans leur rapport de 2021 « Où sont les femmes? Cartographie de l’écart entre les sexes dans l’IA »[7], les algorithmes sont souvent conçus à partir d’ensembles de données recueillies principalement auprès d’hommes, et ces algorithmes contiennent fréquemment des biais discriminatoires fondés sur la race et le sexe. L’inclusion explicite des « femmes » dans le Projet de loi C-11 pourrait aider à compenser ces biais.

« Les politiques identitaires algorithmiques rétablissent les anciennes formes de ségrégation sociale — dans un monde numérique, les politiques identitaires y étant des discriminations de modèles. C’est en reconnaissant des modèles dans les données d’entrée que les algorithmes d’intelligence artificielle créent des biais et pratiquent des exclusions sociales, inscrivant ainsi des relations de pouvoir dans les médias »[8].

Dans un exemple troublant, Ilinca Barsan, directrice de la science des données chez Wunderman Thompson Data, a constaté que les modèles de vision par ordinateur, développés par Google, IBM et Microsoft, étaient systématiquement meilleurs pour identifier les hommes masqués que les femmes; de manière étonnante, ils étaient plus susceptibles d’identifier les masques comme étant du ruban adhésif, des bâillons ou des entraves lorsqu’ils étaient portés par des femmes.[9]

Safiya Noble, chercheuse en matière de médias sociaux et professeure à UCLA, a beaucoup écrit sur ce sujet. Dans son livre Algorithms of Oppression, elle souligne que Google suggère que les résultats de recherche racistes et sexistes sont la faute de l’utilisateur puisqu’ils reflètent simplement nos propres hypothèses culturelles et nos antécédents de recherche[10]. Le côté sombre de l’apprentissage automatique, un type d’intelligence artificielle (IA), est qu’il reflète la façon dont le monde est, et non la façon dont il devrait être.

La possibilité de découvrir du contenu en ligne par et pour les femmes est également compromise par l’industrie elle-même. Le secteur technologique responsable de la mise en œuvre proposée de la Loi sur la diffusion de continu en ligne est connu sous le nom de secteur TIC (technologies de l’information et de la communication), qui relève du secteur plus vaste des STIM (sciences, technologies, ingénierie et mathématiques). Selon le rapport du Département des affaires économiques et sociales des Nations Unies intitulé Progrès dans la réalisation des objectifs de développement durable — Aperçu du genre 2022, « les normes discriminatoires et la violence empêchent les femmes d’accéder pleinement au monde numérique ».

En outre,

Les normes et stéréotypes sexistes biaisés, ancrés dans les programmes, les manuels scolaires et les pratiques d’enseignement et d’apprentissage, font dérailler les choix des filles en matière d’études et, en fin de compte, leurs carrières et leurs possibilités d’emploi à l’âge adulte. À l’échelle mondiale, les jeunes femmes sont plus nombreuses que les jeunes hommes dans l’enseignement supérieur. Pourtant, les femmes constituent une minorité dans l’enseignement des STIM, à seulement 35 %, et dans les études des technologies de l’information et de la communication, à seulement 3 %[11].  

Bien qu’il s’agisse de chiffres mondiaux, selon l’organisation canadienne à but non lucratif Women in Communications and Technology/Les Femmes en communications et technologie :

Les entreprises de ce secteur sont confrontées à des pénuries chroniques de main-d’œuvre qualifiée, mais continuent d’accepter un ratio de quatre hommes pour une femme comme statu quo acceptable[12].

Copyright de l’image Ali Pazani, gracieuseté de Pexels


En août 2020, vingt-cinq ans après la Déclaration de Beijing, les Nations Unies ont publié un document de travail intitulé La révolution numérique : Implications pour l’égalité des sexes et les droits des femmes 25 ans après Beijing. Ce rapport note que « la sous-représentation des femmes dans les domaines technologiques participe à une boucle de rétroaction, amplifiant les biais sexistes dans l’IA (intelligence artificielle) et les systèmes d’apprentissage automatique »[13]

Le déséquilibre entre les sexes dans la recherche en IA dans 23 pays. Source : Mantha et Hudson, Estimation du ratio de sexe des chercheurs en IA dans le monde, 2018. The Alan Turing Institute, Où sont les femmes ? Cartographie de l’écart entre les sexes en matière d’emploi dans les politiques d’IA —Rapport complet.

Selon la Stanford Social Innovation Review :

De nombreuses institutions prennent des décisions sur la base de systèmes d’intelligence artificielle (IA) utilisant l’apprentissage automatique, par lequel une série d’algorithmes prend et apprend à partir de quantités massives de données pour trouver des modèles et faire des prédictions. Ces systèmes déterminent le montant du crédit que les institutions financières accordent à différents clients, les personnes à qui le système de santé donne la priorité pour les vaccins contre la COVID-19 et les candidats que les entreprises convoquent pour des entretiens d’embauche. Pourtant, les biais sexistes sont omniprésents dans ces systèmes et ont de profondes répercussions sur la sécurité psychologique, économique et sanitaire des femmes à court et à long terme. Ils peuvent également renforcer et amplifier les stéréotypes et les préjugés sexistes nuisibles existants[14].

Les effectifs d’IA de Facebook et de Google, respectivement. Sources : Statistiques déclarées par les entreprises, 2018 (voir Simonite, 2018) ; Diagramme de la page 14 de Où sont les femmes? Cartographie de l’écart entre les sexes en matière d’emploi dans les politiques d’IA – Rapport complet; Alan Turing Institute.

Nicol Turner-Lee, spécialiste de l’industrie et chercheuse au Centre pour l’innovation technologique du groupe de réflexion de la Brookings Institution à Washington D.C., souligne que « nous devons réfléchir à qui s’assied à la table lorsque ces systèmes sont proposés, car ce sont ces personnes qui, en fin de compte, façonnent le débat sur le déploiement éthique de leur technologie »[15].

Étant donné l’omission des femmes de la liste des groupes désignés pour l’équité et les biais inhérents au code algorithmique conçu et dirigé par une industrie dominée par les hommes, les politiques énoncées dans le Projet de loi C-11 constituent une discrimination institutionnalisée fondée sur le sexe à l’égard des femmes, permettant ainsi au gouvernement du Canada d’ancrer davantage l’inégalité en ce qui a trait à la réussite et au bien-être des Canadiennes. Nous, les femmes, sommes effacées du langage et de la loi par des politiques adoptées par un cabinet qui ose se qualifier de « gouvernement féministe ».

Les groupes de défense des femmes du Canada ont demandé au Sénat d’inclure explicitement « les femmes » et « le sexe » dans la liste des groupes désignés que la nouvelle Loi sur la radiodiffusion inclura et privilégiera[16],[17]. Officieusement, on dit que les femmes sont déjà représentées sous la rubrique « genre » qui est incluse dans d’autres considérations. Mais en tant que femmes, nous n’aimons pas nous faire dire comment nous devons être définies.

Malgré la confusion fréquente entre le sexe et le genre, nous nous définissons comme une classe fondée sur le sexe. Le genre est une construction sociale, alors que le sexe est une réalité matérielle objective. Il n’a jamais été aussi clair que nous devons communiquer avec nos parlementaires et aborder la confusion entre le sexe et le genre tout en affirmant notre statut collectif, en tant que membres du sexe féminin, qui est distinct de l’identité de genre. Autrement, cette loi pourrait établir un dangereux précédent pour les mesures législatives futures. Et, lorsque le gouvernement examinera les préjudices en ligne dans sa prochaine législation, il aurait intérêt à tenir compte des facteurs abordés ici.

Image de Pixaby, gracieuseté de Pexels

En 2012, le National Post publiait un article de Gerald Caplan. Il y déclarait : « Malgré les progrès remarquables réalisés par les femmes au cours du dernier demi-siècle, s’accrochant à chaque centimètre de ceux-ci, la lutte pour l’égalité des femmes ne s’arrête jamais. Elle a tout simplement trop d’ennemis, qui se battent toujours pour maintenir les femmes à leur place, là où elles doivent être, mortes ou vivantes. Les jeunes femmes qui considèrent que le féminisme n’est pas pertinent ou qu’il est dépassé ont, j’en ai peur, tout à fait tort. La lutte n’est jamais terminée »[18]. Il avait raison; 12 ans plus tard, peu de choses ont changé.

Le désespoir et les dommages psychologiques s’aggravent chaque jour avec toute nouvelle mesure législative qui accélère davantage l’effacement des femmes dans le langage et la loi. Ces dommages incalculables pourraient avoir des impacts importants sur les générations futures de femmes et de filles. Alors que le gouvernement du Canada étudie et élabore cette législation depuis au moins 2017, son impact sur le sexe féminin ne semble pas avoir été pris en considération malgré la pléthore d’études crédibles disponibles. De plus, il a manqué à son engagement envers les Nations Unies de mettre en œuvre des politiques en notre nom. Peut-être croit-il que l’inclusion du mot « genre » dans la législation est en quelque sorte un substitut raisonnable à la réalisation d’une analyse comparative entre les sexes+ avec des données ventilées par le sexe (et non le genre) — ce n’est pas le cas.

Le 23 novembre, le Comité sénatorial des transports et des communications se réunissait pour examiner le Projet de loi C-11 article par article. Notre inclusion dans la Loi sur la diffusion en ligne est primordiale pour assurer un avenir équitable au Canada. Il ne reste plus qu’un seul vote, de la part de tous les sénateurs, avant que le Projet de loi C-11 ne reçoive la sanction royale, créant ainsi un précédent — d’effacement des femmes — pour la législation canadienne et étrangère.

– Simone XX (Novembre 2022)

Simone XX est une féministe critique du genre basée au Canada et membre de WDI Canada. Elle s’intéresse à l’effacement des femmes dans le langage et le droit. Elle a été bannie de Twitter, mais reste active sur Instagram @feminism_for_females.

Cet article a été publié dans sa forme originale anglaise dans Women are Human le 21 novembre 2022.

Traduit par Élaine Grisé et révisé par Dominique Gaucher.


[1] https://www.unwomen.org/en/digital-library/publications/2015/01/beijing-declaration Consulté en septembre 2022.

[2] https://www.un.org/womenwatch/daw/beijing/platform/media.htm

[3] https://sencanada.ca/en/sencaplus/news/the-online-streaming-act-in-the-senate/ Mis à jour le 10 novembre 2022, consulté le 10 novembre 2022.

[4] https://cdec-cdce.org/wp-content/uploads/2020/12/The-challenge-of-discoverability_CDCE.pdf page 21; consulté le 12 novembre 2022.

[5] https://www.canada.ca/en/canadian-heritage/services/diversity-content-digital-age/international-engagement-strategy/report.html#a7 Consulté le 12 novembre 2022.

[6] https://sencanada.ca/en/sencaplus/news/the-online-streaming-act-in-the-senate/ Mis à jour le 10 novembre 2022, consulté le 10 novembre 2022.

[7] Where are the women? Mapping the gender job gap in AI Policy Briefing — Full Report Public Policy Programme Women in Data Science and AI project; Erin Young, Judy Wajcman, Laila Sprejer; The Alan Turing Institute. https://www.turing.ac.uk/sites/default/files/2021-03/where-are-the-women_public-policy_full-report.pdf

[8] Clemens Apprich, Wendy Hui Kyong Chun, Florian Cramer, and Hito Steyerl, Pattern Discrimination, 2019; https://www.upress.umn.edu/book-division/books/pattern-discrimination Consulté le 3 novembre 2022.

[9] Research Reveals Inherent AI Gender Bia; Quantifying the accuracy of vision/facial recognition on identifying PPE masks; Author Ilinca Barsan, Director of Data Science, Wunderman Thompson Data https://www.wundermanthompson.com/insight/ai-and-gender-bias  Consulté le 13 novembre 2022.

[10] https://theconversation.com/googles-algorithms-discriminate-against-women-and-people-of-colour-112516  Consulté le 4 novembre 2022.

[11] Progress on the Sustainable Development Goals: The gender snapshot 2022 https://www.unwomen.org/en/digital-library/publications/2022/09/progress-on-the-sustainable-development-goals-the-gender-snapshot-2022  page 5,   consulté en septembre 2022.

[12] Women in Communications and Technology  https://wct-fct.com/en/advocacy/up-the-numbers 
Consulté le 8 octobre 2022.

[13] J Judy Wajcman, Erin Young, Anna FitzMaurice, THE DIGITAL REVOLUTION: Implications for Gender Equality and Women’s Rights 25 Years after Beijing; No. 36, août 2020; p. 15. https://www.unwomen.org/sites/default/files/Headquarters/Attachments/Sections/Library/Publications/2020/The-digital-revolution-Implications-for-gender-equality-and-womens-rights-25-years-after-Beijing-en.pdf 

[14] Genevieve Smith & Ishita Rustagi, https://ssir.org/articles/entry/when_good_algorithms_go_sexist_why_and_how_to_advance_ai_gender_equity   31 mars 2021; consulté le 8 octobre 2022.

[15] Rebecca Heilweil, Why algorithms can be racist and sexist; A computer can make a decision faster. That doesn’t make it fair. 18 février 2020

https://www.vox.com/recode/2020/2/18/21121286/algorithms-bias-discrimination-facial-recognition-transparency  Consulté le 23 novembre 2022.

[16] https://sencanada.ca/Content/Sen/Committee/441/TRCM/briefs/TRCM_SM-C-11_WDICanada_e.pdf

[17] https://sencanada.ca/Content/Sen/Committee/441/TRCM/briefs/TRCM_Brief_PDFQu%C3%A9bec_e.pdf 

[18] https://www.theglobeandmail.com/news/politics/second-reading/honour-killings-in-canada-even-worse-than-we-believe/article1314263/ Consulté le 5 août 2022.

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.