Pourquoi le travail des femmes risque d’être plus impacté par l’intelligence artificielle que celui des hommes
© Tous droits réservés
03 août 2023 à 14:17
•
Temps de lecture8 min
Par Camille Wernaers pour Les Grenades
PARTAGER
Écouter l'article
Selon un rapport du McKinsey Global Institute, publié fin juillet, plus de femmes que d’hommes risquent de perdre leur emploi d’ici 2030 en raison de l’essor de l’intelligence artificielle et de l’automatisation.
Les secteurs qui devraient le plus reculer en raison de l’automatisation sont la restauration, le service à la clientèle et la vente, ainsi que les services de bureau. Les femmes sont surreprésentées dans ces secteurs, – et occupent davantage d’emplois mal rémunérés que les hommes -, c’est également le cas en Belgique. Elles risquent donc d’être davantage touchées, selon le rapport.
"Un robot ne se plaint pas"
Laurence Dierickx est chercheuse dans le domaine de l’intelligence artificielle (IA) au sein de l’université de Bergen, en Norvège. Elle donne également un cours sur les données à l’Université Libre de Bruxelles et elle a créé, avec d’autres journalistes du média belge Alter Echos, le webdocu La quatrième révolution industrielle qui s’intéresse aux conséquences de l’IA sur l’emploi.
"Ce que nous dit cette étude est vraiment préoccupant, mais ce n’est pas très surprenant, observe-t-elle. "Dans une économie néo-libérale, la tentation va être élevée de réduire les coûts, en utilisant des systèmes de génération automatique plutôt que des êtres humains, par exemple pour créer un logo ou pour écrire des textes de descriptions pour des sites commerciaux. Les métiers créatifs et intellectuels vont forcément être impactés, tous ceux du secteur tertiaire, des soins de santé ou de la grande distribution également, où on retrouve pourtant beaucoup de femmes. En fait, les données montrent que 50% des activités actuelles sont potentiellement automatisables. Même dans le journalisme, et ce malgré les risques d’erreur de l’IA, on voit des médias commencer à l’utiliser pour écrire des articles, notamment d’actualité locale."
►►► Retrouvez en cliquant ici tous les articles des Grenades, le média de la RTBF qui dégoupille l’actualité d’un point de vue féministe
Elle poursuit : "Je pense aussi à la Belgique, par exemple en Région bruxelloise, notre jeunesse a du mal à s’insérer sur le marché de l’emploi, surtout les jeunes moins diplômé·es. Là où il y avait des possibilités de travailler, il y en aura peut-être moins à l’avenir, car il faudra mettre en avant des compétences à plus forte valeur ajoutée. D’autant plus qu’un robot est très ‘performant’, ne se plaint pas, ne fait pas de pause, peut tourner 24h/24 et ne coûte rien en charges patronales…"
Mieke De Ketelaere, ingénieure belge et experte en intelligence artificielle, rassure : "De nombreux emplois du secteur de la santé (infirmières, personnel soignant, etc.) ne risquent pas encore d’être pris en charge par les robots de l’IA. En tout cas, je ne préfère pas qu’un système d’IA me fasse une prise de sang… Ces emplois sont typiquement féminins, et étant donné que notre âge augmente, nous en aurons besoin de plus en plus, et non moins. Si certaines personnes dans le secteur des soins de santé sont amenées à disparaître, ce sera très probablement à cause de la reconnaissance d’images. Ainsi, c’est le travail de certain·es spécialistes qui sera impacté, mais selon moi, l’IA devrait les aider, pas les remplacer."
Sous-représentation des femmes
Selon Laurence Dierickx, "il faut en effet garder de la nuance sur ce sujet" et sortir des visions très positives présentant l’IA uniquement comme un progrès, tout comme de celles extrêmement négatives qui "portent un discours anxiogène et qui participent à un marketing de la peur".
Les gens doivent s’emparer de ces systèmes et comprendre comment ils fonctionnent
"Comme dans toute révolution industrielle, des emplois vont disparaitre (mais pas tous les emplois, comme voudraient le faire croire certains ‘gourous’ de l’IA). D’un autre côté, de nouveaux métiers vont apparaitre : il faudra bien des gens pour paramétrer ces systèmes", souligne-t-elle. "Il faut cependant continuer à prendre en considération l’aspect genré de la situation : les femmes sont aujourd’hui sous-représentées dans le secteur des nouvelles technologies, qui sont les emplois du futur. Elles seront donc plus impactées par l’IA pour cette raison également."
À lire aussi
Safia Kessas sur la place des femmes dans la technologie : "En tant que média, on a la responsabilité de mettre ce genre de profils en avant"
En Europe, seulement 22% des emplois dans la tech sont occupés par des femmes. Elles sont minoritaires dans ce secteur en Belgique également : à titre d’exemple, à peine 17,7% des spécialistes IT sont des femmes. Soutenue par le gouvernement fédéral, l’initiative Women in digital vise à réduire cet écart.
"Il s’agit d’un secteur très masculin, ces entreprises ne cherchent pas vraiment à embaucher des femmes. Les femmes qui parviennent à y travailler sont confrontées à des obstacles spécifiques, comme du harcèlement sexuel ou la difficile conciliation entre la vie privée et la vie professionnelle", précise encore Laurence Dierickx. Une étude menée aux États-Unis avait d’ailleurs montré que la moitié des jeunes femmes exerçant un emploi technologique le délaisse avant même d’atteindre l’âge de 35 ans.
À lire aussi
Sanae Saadaoui : "Nous avons besoin des femmes en informatique"
Des biais genrés dans l’utilisation de l’IA
Autre aspect genré à prendre en compte quand on utilise l’IA, "ces systèmes sont dans leur grande majorité créés par des hommes, avec leur vision sur le monde, ce qui crée des biais genrés dès le départ. Ce ne sont pas des systèmes neutres ou objectifs, ils reproduisent les biais de genre qui existent depuis longtemps dans le secteur, mais ils risquent de les amplifier aussi, et c’est un réel problème. Même si cela n’est pas toujours intentionnel, cela peut amener à de la discrimination et de l’exclusion. Les systèmes de reconnaissance faciale par exemple discriminent les personnes racisées ou les personnes transgenres", explique Laurence Dierickx.
Dans le documentaire Coded Bias, la scientifique afro-américaine Joy Buolamwin met en avant les biais de ces programmes informatiques, et comment ces algorithmes peuvent diffuser une vision raciste et misogyne de notre société.
Dans une économie néo-libérale, la tentation va être élevée de réduire les coûts, en utilisant des systèmes de génération automatique plutôt que des êtres humains
"L’intelligence artificielle a besoin de données pour pouvoir s’entrainer. Même s’il manque de transparence sur la manière dont ces systèmes s’entrainent, on sait que les données ne viennent pas de nulle part ! Selon Le Washington Post, certaines de ces données viennent de sites d’extrême droite ou religieux. Des chatbots, c’est-à-dire des programmes qui simulent une conversation, pourraient sur cette base prodiguer des conseils ou des avis anti-avortement. Ils ne font que reproduire les connaissances humaines, qui sont elles-mêmes biaisées", continue-t-elle.
En 2020, quatre chercheuses, Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell ont découvert des problèmes dans l'entrainement de ces machines. Selon elles, les chatbots créent des textes en fonction des probabilités de retrouver des groupes de mots dans les données d’entrainement. Cela signifie que plus des mots se retrouvent dans les données d'entrainement, plus il y a de chances qu’ils se retrouvent dans le texte final généré, ne laissant que peu de place à la diffusion d'un autre point de vue. "Les voix des personnes les plus susceptibles d’adhérer à un point de vue hégémonique sont également les plus susceptibles d’être retenues […] Dans le cas de l’anglais américain et britannique, cela signifie que les opinions suprémacistes blanches, misogynes, âgistes, etc. sont surreprésentées dans les données d’entraînement, ce qui non seulement dépasse leur prévalence dans la population générale, mais permet également aux modèles entraînés sur ces ensembles de données d’amplifier davantage les biais et les préjudices", ont-elles conclu (à cause de cette répétition, parfois approximative, de données existantes, ChatGPT est qualifié de "perroquet").
Les ‘nerds’ de ce secteur doivent parler à des gens qui ne les comprennent pas encore très bien : sociologues, citoyen·nes, gouvernement…
Des biais sexistes qui n’épargnent pas les IA de recrutement et qui pourraient dès lors affecter l’accès des femmes au marché du travail. Une intelligence artificielle développée par Amazon, et qui permettait de trier les CV des candidat·es, a dû être arrêtée par l’entreprise en 2017 après avoir discriminé les femmes. L’IA avait été entraînée avec des profils d’hommes et avait donc conclu qu’il fallait sélectionner d’abord des candidats de sexe masculin.
Le projet "Not My A.I" ("Pas mon IA") est né de ces différentes conclusions, souhaitant mettre en avant les enjeux féministes que posent les nouvelles technologies.
À lire aussi
Dérive de l'intelligence artificielle : ces I.A. qui notent la beauté des femmes
Comprendre ces systèmes
Mieke De Ketelaere s’intéresse également à la création "d’une IA responsable". Elle explique : "Nous aurons besoin que les technicien·nes (y compris moi-même) parlent et expliquent dans un langage compréhensible ce qu’ils ont fait et comment cela fonctionne, avant de le mettre dans le monde. Mais cela signifie que les ‘nerds’ de ce secteur doivent parler à des gens qui ne les comprennent pas encore très bien : sociologues, citoyen·nes, gouvernements… Cela nécessite une personne neutre, que j’ai appelée, dans mon livre Homme versus machine : L’intelligence artificielle démystifiée, ‘The AI Translator’ ('La Traductrice IA'), et qui fait tout pour s’assurer que les gens travaillent ensemble et se comprennent mutuellement dans leur secteur (et dans leur zone de confort). Cela demande de l’empathie, des compétences sociales, etc. Je ne dis pas que les hommes ne peuvent pas le faire, mais les femmes ont tendance à être meilleures dans ce domaine."
►►► Pour recevoir les informations des Grenades via notre newsletter, n’hésitez pas à vous inscrire ici
Face aux conséquences des nouvelles technologies, et aux biais qu’elles entrainent, Laurence Dierickx estime quant à elle qu'il faut "absolument parler de ces biais, les mettre sur la table". Elle reste persuadée que la solution viendra de l’enseignement et de l’éducation permanente. "Il devrait avoir un programme spécifique à l’école sur cette question. Pour expliquer ce qu’est l’intelligence artificielle, et quelles sont ses limites. Les gens doivent s’emparer de ces systèmes et comprendre comment ils fonctionnent. Par exemple, quand on parle avec un chatbot, en tant qu’être humain, on croit qu’il nous comprend. Soyons claires : il ne comprend rien ! Ce ne sont que des mathématiques et des probabilités. Il ne faut pas se faire peur, comme dans certains films de science-fiction !
Elle reprend : "Il y a tellement d’enjeux de société en ce moment que c’est compliqué, on peut même penser que cela nous dépasse, mais on doit lutter pour garder notre capacité d’agir et de réfléchir sur cette question. C’est pour cela qu’il faut en faire une vraie question politique, même si la Belgique reste un peu à la traine."
L’Europe s’empare de la question
Pour l’experte, les choses évoluent en Europe, avec une volonté de "débiaiser" les algorithmes qui forment la base de l’IA.
Une proposition de règlement déposée en 2021, l’IA ACT, vise à créer un cadre juridique européen qui entoure l’utilisation de l’IA. La non-discrimination et l’égalité entre les hommes et les femmes y sont clairement rappelées. Et ce afin de limiter les dommages potentiels causés à nos sociétés par l’IA.
Sciences et tech : elles prennent leur place - A la rencontre de Nadia Aimé, 29 ans, spécialiste en cybersécurité
Sciences et tech : elles prennent leur place - A la rencontre de Nadia Aimé, 29 ans, spécialiste en cybersécurité
Pour voir ce contenu, connectez-vous gratuitement
Connectez-vous
Si vous souhaitez contacter l’équipe des Grenades, vous pouvez envoyer un mail à lesgrenades@rtbf.be.
Les Grenades-RTBF est un projet soutenu par la Fédération Wallonie-Bruxelles qui propose des contenus d’actualité sous un prisme genre et féministe. Le projet a pour ambition de donner plus de voix aux femmes, sous-représentées dans les médias.
https://www.rtbf.be/article/pourquoi-le-travail-des-femmes-risque-detre-plus-impacte-par-lintelligence-artificielle-que-celui-des-hommes-11236331