Pour un monde digital inclusif : innovation et technologies pour l’égalité des sexes.
C’est le thème de l’ONU pour la journée des droits des femmes de ce 8 mars 2023.
C’est dire l’importance de ce thème. Et surtout l’urgence à agir.
Moins e 1/3 des travailleurs dans les secteurs tech sont des femmes.
Des opportunités manquées pour améliorer leur condition de vie, leur autonomie, leur business et de prendre leur place dans ce nouveau monde.
Une absence fulgurante des femmes et à tous les niveaux.
Moins de 10% dans les universités dans les cursus techno/informatique.
Alors que le monde est en accélération vertigineuse et de plus en plus digital.
Comment construire un monde meilleur, juste envers les femmes, si elles sont absentes des décisions ? Des décisions qui exigent des connaissances de ce monde digital.
Je ne parle pas d’écrire un programme informatique. Mais, de comprendre ce qu’est l’informatique, des métiers qu’elle amène, des enjeux.
De comprendre les nouvelles règles du jeu de ce monde digital.
De comprendre les mécanismes de prise de décisions par un algorithme d’intelligence artificielle, les busines models qu’amènent les technologiques …
Et surtout comprendre les enjeux envers le genre qui se jouent et qui risquent d’aggraver la situation de la femme. Une situation qui reste précaire malgré les avancées. Il suffit d’une crise, nous l’avons vu avec la crise Covid-19, pour voir les droits acquis par les femmes reculer.
Nous vivons une révolution digitale, technologique. Un fait indéniable. Un monde régi par de nouvelles règles et qui nécessite de nouvelles clés et compétences pour être compris, appréhendé et apprivoisé.
D’après une étude de Dell, 85% des jobs en 2030 n’existent pas encore. (source
Et d’après le WEF (World Economic Forum), plus que la moitié des jobs en 2030 nécessiteront des compétences dans le digital (digital litteracy).
Des compétences pour comprendre les technologies, les utiliser pour résoudre les problèmes, prendre des décisions, diriger des équipes mixtes humaines et robots, créer de la valeur, identifier des opportunités …
La fracture numérique se creuse de plus en plus. Et la thématique des femmes et le digital est très vaste.
Pour célébrer cette journée du 8 mars, j’ai choisi d’aborder la problématique des biais technologiques envers les femmes. En particulier, les biais introduits par l’intelligence artificielle.
Comprendre comment ces biais sont introduits dans les systèmes d’intelligence artificielle et surtout d’entrevoir les conséquences désastreuses qu’ils peuvent engendrer.
L’ axe des biais est aussi très intéressant pour illustrer de manière claire que la place des femmes est essentielle à chaque niveau organisationnel et à chaque sphère de la société.
Les biais c’est un vrai fléau dans le monde de l’intelligence artificielles (IA).
L’intelligence artificielle ! Une révolution dans la révolution.
Nous sommes à la troisième phase de la révolution digitale, celle de l’IA.
L’IA, le sang qui coule dans les autres technologies (drone, mobile, réalité virtuelle, blockchain, mobile, …) et qui leur donne vie, qui les rend plus puissantes.
L’IA est en train de transformer radicalement notre monde, de la façon de travailler, de communiquer, de jouer, de prendre des décisions, de se soigner, …
L’IA est présente partout et sous des formes diverses : reconnaissance vocale, faciale, d’images, traduction automatique, recommandation de produits, robots infirmiers, aide à la décision médicale, juridiques, professeur, …
Souvent invisible. Elle rend les choses magiques. Tu penses acheter un produit, et voilà qu’on te le propose. On lit dans tes pensées ! Elle agit en force et loin des regards.
L’IA c’est aussi un grand danger potentiel pour les femmes. Si on y prend pas garde, les stéréotypes et les préjugés seront renforcés et magnifiés dans ces algorithmes et systèmes d’IA.
Et comme conséquence, les femmes encore plus écartées des fonctions clés où se prennent les décisions et se construit le nouveau monde.
44,2% des systèmes de IAs présentent des biais de genre.
C’est ce que montre une étude générale de 133 systèmes dans différentes industries.
Un chiffre énorme !
Quoi de plus parlant que des exemples réels et issus de domaines différents pour se rendre compte de la gravité de la situation et de ce que signifie ces 42% concrètement en terme d’impacts négatifs.
Et les exemples sont nombreux.
Un système de recrutement qui n’aime pas les femmes
Il n’est pas toujours évident de trouver sa place en tant que femme dans certains domaine d’expertise et fonctions. Si l’IA rajoute une couche, on est mal partis.
Le recrutement est l’un des secteurs où plusieurs systèmes d’aide au recrutement florissent. Bien entendu, l’objectif étant de raccourcir la durée des processus de recrutement et les coûts énormes qui vont avec, surtout dans les grosses boites.
Amazon, le roi de l’automatisation online avec la marketplace que tout le monde connait. Et offline avec Amazon Go, ces magasins où vous entrez, vous faites vos courses, les mettez dans votre sac et sortez. Pas de caisse, pas de file, pas d’attente. Tout est automatique et se passe dans votre Mobile !
Automatiser le recrutement n’était qu’un processus en plus pour Amazon.
En 2018, Amazon développe un système d’IA d’aide au tri des candidatures. Hélas, il parait que ce système « n’aimait pas les femmes » selon SAN FRANCISCO – Reuters.
Le système donnait la préférence aux candidatures masculines.
Le système a été entrainé avec des données historiques de recrutement d’Amazon des 10 dernières années. Des données biaisées en faveur des candidats masculins. La plupart des CVs étaient des CV d’hommes.
Le système reflète tout simplement la sous-représentation des femmes chez Amazon et en général dans le domaine des technologies à travers le monde. Il a « juste » reproduit cette réalité.
Je vous laisse imaginer ce qui se passerait si Amazon avait continuer avec ce système. Encore moins de femmes … Le système d’Amazon a été heureusement abandonné. Mais, combien d’autres systèmes biaisés envers les femmes continuent paisiblement leur existence.
Des chatbots sexistes
Et oui, ils sont aussi de la fête.
Question : “Siri, quels sont les meilleurs emplois pour les femmes ?”
Réponse de Siri : “Je ne suis pas sûr, peut-être que vous devriez chercher des emplois dans des domaines où les femmes réussissent traditionnellement, comme les soins infirmiers ou l’enseignement.”
Question : “Alexa, qui sont les meilleurs chefs cuisiniers au monde ?”
Réponse d’Alexa : “Je ne suis pas sûr, mais la plupart des chefs cuisiniers célèbres sont des hommes.”
Siri d’Apple et Alexa d’Amazon ne font pas l’exception. D’autres chatbots ont des biais de genre. C’est ce que révèle une étude de 2021. Les chatbots sont plus susceptibles de répondre de manière stéréotypée aux questions posées par des utilisatrices. Par exemple, en donnant des réponses plus conciliantes ou en suggérant des emplois liés à la famille. En revanche, les chatbots étaient plus susceptibles de répondre de manière assertive et compétitive aux utilisateurs masculins.
Ou plus grave encore, un chatbot destiné à aider les victimes de violence domestique qui suggère que les femmes sont en partie responsables de leur agression.
Les biais ont été identifiés dans plusieurs chatbots. C’est le cas de Apple, Google, Amazon, IBM.
Ces systèmes intelligents, les chatbots, souvent miment les biais qu’ils trouvent dans les datas. Ils se comportent comme des enfants qui apprennent de ce que disent leur parents et reproduisent leurs habitudes et leurs phrases/mots. Si les phrases associent les femmes au ménage et les hommes aux jobs de décideurs, ils vont reproduire la même chose.
La santé des femmes en danger ?
La santé des femmes est aussi sujette à des problèmes de biais qui font que des algorithmes font plus d’erreur de diagnostic.
C’est par exemple, ces algorithmes développés pour diagnostiquer des maladies cardiaques et qui ont tendance à être moins précis pour les femmes que pour les hommes. De nouveau, Ils ont été entrainés sur des données qui reflètent des symptômes plus courants chez les hommes. Et probablement, en partant de l’hypothèse que les symptômes chez les femmes sont les mêmes que chez les hommes.
Dans un autre cas, ce sont des algorithmes de prédiction des risques de maladies et de décès qui sont biaisés envers les femmes. Comme cet algorithme qui sous-estime les risques de maladies cardiaques pour les femmes. Et donc qui engendre le risque d’un sous-diagnostic et de mauvais traitement pour les femmes.
Système de reconnaissance faciale
En 2018, Twitter a été critiqué pour son système de reconnaissance faciale. Un système plus précis pour les hommes que pour les femmes, en particulier pour les femmes de couleur. Bien sûr, les conséquences peuvent être assez grave.
Pensez au fait que la reconnaissance faciale est très généralisée dans le monde de la sécurité. Et si on ne vous reconnaissait pas parce que vous êtes une femme ?
Des systèmes de reconnaissance faciale ont tendance à être moins précis pour les femmes et les personnes de couleur d’après une étude du National Institute of Standards and Technology (NIST) de 2018.
Ces systèmes apprennent en analysant un ensemble très grand de données. Ils apprennent à identifier des patterns sur des milliers d’images de visages. Si vous leur donnez 90% de visages d’hommes (et souvent blancs), et le reste de femmes, l’association est vite faite.
Des finances encore moins accessibles aux femmes ?
Apple Card, le système de crédit d’Apple, largement utilisé. En 2019, il a été critiqué car il accordait des limites de crédit plus élevées aux hommes qu’aux femmes. Et cela bien sûr, même pour des profils financiers similaires.
Et parfois, même si le profil financier de la femme est supérieur. David Heinmeier Hansson, un entrepreneur américain dans les techs, a raconté sur Twitter comment Apple Card lui a accordé une limite de crédit 20 fois supérieur à celle de sa femme alors que celle-ci avait un score de crédit supérieur au sien.
Et ces algorithmes utilisés pour prendre des décisions d’octroi de crédit et d’investissement. Par exemple, un algorithme pour l’attribution des prêts hypothécaires qui accorde des taux d’intérêt plus élevés aux femmes qu’aux hommes, même avec des profils financiers similaires.
En 2019, une enquête menée par le Wall Street Journal a révélé que le système de notation de crédit de FICO avait un biais envers les femmes. Le système attribuait des scores de crédit plus bas aux femmes qu’aux hommes, les profils financiers étant similaires.
Les biais traduisent ce que les données portent en elles et les renforcent. Et surtout renforcent les conséquences sur les femmes dans la vie réelle. Les femmes souffrent déjà de pas mal de préjugés qui les empêchent d’accéder facilement aux crédits et aux investissements. Des discriminations économiques qui risquent de se renforcer avec l’IA..
Et on retrouve les biais envers les femmes dans tous les domaines
Des systèmes d’IA de prédictions de la réussite dans des concours universitaires biaisés envers les femmes malgré des notes d’examens plus élevés.
Des systèmes d’IA utilisés pour prédire le risque de récidive et pour déterminer les peines biaisés envers les femmes. C’est le cas d’un système d’IA dans le système de justice pénale aux États-Unis qui attribue des scores plus élevés aux hommes qu’aux femmes pour le risque de récidive, même avec des antécédents criminels similaires.
Par exemple, le système de prédiction de la criminalité de la police de Floride, biaisé envers les femmes et les noirs, d’après une étude menée par ProPublica en 2016. Le système avait été utilisé pour déterminer les peines et les conditions de probation pour les délinquants.
Des systèmes de recherche souvent stéréotypés et sexistes comme l’a montré la chercheuse Safiya Umoja Noble. Par exemple, les résultats de recherche sur Google pour des termes tels que “les femmes sont” a renvoyé à des résultats du type “les femmes sont folles” ou “les femmes sont faibles”.
Des biais pour la plupart introduit inconsciemment et qui reflètent les biais et préjugés envers les femmes qui existent dans nos sociétés, nos cultures et le langage naturel.
Hélas, parfois ces biais peuvent être introduits de manière intentionnelle, même si c’est rare.
Par exemple, en 2018, il a été révélé que le gouvernement chinois avait créé un système IA de surveillance de masse pour la région du Xinjiang. Le système était conçu pour cibler les minorités musulmanes ouïghoures. Le système utilisait des algorithmes de reconnaissance faciale et des données de suivi de localisation pour surveiller et contrôler les déplacements des personnes de cette communauté.
Vous l’aurez compris, IA = data. Pas de data, pas d’IA. Et des données biaisées donnent des systèmes IA biaisés.
Les algorithmes d’IA sont entrainées sur des données. Ils se nourrissent des données et apprennent avec elles à trouver les bonnes réponses et à élaborer les bonnes décisions. Ils apprennent et s’améliorent avec les données (machine learning). Si les données sont biaisées, ils vont reproduire ces biais.
Plus la quantité de données nécessaire est grande (par exemple avec le deep learning), plus le risque de biais est grand.
Les données ne sont pas facilement disponibles. Parfois, on fait avec ce qui est disponible. Des CVs d’hommes ; des photos d’homme blancs ; des visages d’hommes médecins vs des femmes infirmières ; des textes qui parlent des hommes CEO et dirigeants vs des femmes aux foyers, …
Malheureusement, ces données (brutes) sont souvent biaisées et reflètent les préjugés et les stéréotypes de la société. L’IA, comme les sciences, n’est pas neutre. C’est le reflet de nos sociétés, de nos cultures et de nos habitudes.
Mais, le risque est aussi dans l’autre sens. C’est que ces biais technologiques accentuent les biais de genre dans la vie réelle. A force de montrer des réalités biaisées, et sans conscience des mécanismes et fonctionnements sous-jacents, des personnes peuvent de plus en plus croire à ces réalités et ne plus les remettre en question. Ce sont les phénomènes qu’on voit avec les réseaux sociaux. Un Facebook par exemple qui nous montre juste ce qui nous intéresse. Avec le temps, le risque est de croire que c’est la (seule) réalité.
La problématique des biais est largement connue aujourd’hui dans les milieux scientifiques et technologiques. Des approches et des solutions sont mises en place à différents niveaux de collecte et traitement des données limiter les biais.
Des solutions multiples
La première approche concerne la collecte des données représentatives des femmes (et des minorités). Collecter des données diverses et qui proviennent de sources différentes. Cela peut paraitre simple, mais collecter des grandes quantités de données et représentatives peut nécessiter beaucoup de temps et de techniques adaptées.
On peut citer également des techniques comme l’analyse de cluster, l’analyse des composantes principales ou des techniques de modélisation équitable. La difficulté réside aussi dans les types de données à traiter et qui sont différents. Des images/visages, textes, voix …
Des approches au niveau des processus sont aussi mises en place. Comme l’implémentation de codes de conduite, c’est-à-dire des directives sur les bonnes pratiques éthiques pour la collecte, le traitement et l’utilisation des données dans les systèmes d’IA.
Parfois, des processus de validation indépendants sont nécessaires pour valider les approches et les implémentations.
Bien entendu, ce sont des approches liées à la techniques elle-même, au niveau des données, des modélisations, des algorithmes, des tests et validation et des processus.
Des approches qu’il faut renforcer à d’autres niveaux organisationnels.
La diversité, une force pour l’entreprise
Et un des éléments clés à mettre en place pour réduire les biais dans les systèmes IA est la diversité dans les équipes, des équipes mixtes femmes/hommes. La diversité amène des regards différents. C’est une source de créativité. Et il a été démontré qu’elle permet de réduire considérablement les risques de biais envers les femmes. Bien entendu, le mieux est la diversité au sens large pour éviter les biais envers les femmes et envers les minorités.
Pour que ça fonctionne, il est impératif de former les équipes à cette notion de biais et leur donner les outils et les moyens pour les reconnaitre et les traiter à chaque phase du processus de développement.
Cette conscientisation et réflexion doit être intégrée à tous les niveaux, et pas uniquement dans les équipes de développement.
Et cela ne concerne pas uniquement les entreprises de développement de systèmes IA.
Nous serons tous amenés à utiliser ce systèmes, et plutôt qu’on le pense. L’automatisation du monde, même si ça fait peur c’est une réalité.
En tant que dirigeant, qu’entrepreneur, comment allez-vous vous assurez que les systèmes et les logiciels que vous utilisez, directement ou indirectement, ne sont pas biaisés ?
Je reprends l’exemple des systèmes de recrutements. Comment allez-vous vous assurez que votre recrutement automatisé n’est pas biaisé ? Qu’il soit interne chez vous, acheté, développé sur mesure pour vous ou louer en SaaS (Software As A Service). Ou qu’il soit externe via le système de votre partenaire de recrutement.
Adopter de tels systèmes dans son business, ce que j’appelle des projets de transformation digitale, exige une approche globale et holistique qui combine des compétences techniques (modélisation, science des données, résolution de problèmes, développement, algorithmique, …), éthiques et sociales. Il faut pour cela mettre en place une culture positive et d’innovation. Une culture avec des valeurs fortes. La culture est le ciment des projets de transformation digitale.
“Culture eats strategy at lunch.” Peter Drucker.
Pour mettre en place une culture forte et d’innovation, il faut un leadership fort et orienté digital. C’est-à-dire, un leader qui comprend les hommes et les femmes, qui comprend comment les algorithmes prennent des décisions, un leader capable de faire respecter les valeurs et de mettre l’humain au centre des réflexions et décisions.
Il y a quand même un point noir dans ce raisonnement. Comment amener la diversité si les femmes restent les grandes absentes du monde digital ; si elles ne se forment pas à ces nouveaux métiers ; si elles ne développent pas ce leadership « digital. Si elle restent spectatrices !
Rappelez-vous, en 2030, 85% des métiers n’existent pas encore. Et quel que soit le métier, au minimum il faut comprendre le digital pour avoir une place. 2030, c’est bientôt là. C’est la promotion des filles dans le secondaire aujourd’hui.
Comment prendre et garder une place dans ce monde si on n’a pas les compétences digitales requises ? Des compétences techniques, de leadership, d’utilisation, de résolution de problèmes, d’algorithmique, de gestion de projets IT et d’innovation, … Le choix est large et chacune peut trouver son bonheur.
La fracture numérique est géante. Cela ne concerne pas uniquement sa place dans le monde du travail, du business et le opportunités ratées. Cela va beaucoup plus loin.
« Les femmes sont 20% moins susceptibles que les hommes d’utiliser l’Internet, mais 27 fois plus susceptibles d’être victimes de harcèlement ou de discours de haine en ligne, lorsqu’elles le font ».
Csaba Kőrös, Président de l’Assemblée générale des Nations Unies.
Comment faire face au harcèlement en ligne si on ne comprend pas comment ça fonctionne ?
J’invite toutes les femmes à saisir ces opportunités du digital, à libérer leur créativité en se formant et en apprenant les nouvelles règles de ce monde technologique. A adopter le digital pour prendre leur place et construire un monde qui leur convient. Il n’est jamais trop tard pour mieux faire.
Soyons unis, femmes et hommes pour construire un monde meilleur, plus juste, plus humain.
Les algorithmes d’IA prennent de plus en plus de place dans nos vie. C’est irréversible.
Pourquoi ne pas transformer cela en une opportunité pour libérer le temps et le consacrer à grandir nos valeurs et notre humanité ?
Les biais technologiques envers les femmes est le reflet de nos sociétés et de tout ce qui reste encore à faire. Les techniques mises en place permettent de les réduire. Malheureusement, elles ne vont pas les éliminer. C’est un travail qui doit se faire dans la vraie vie également.
Tant que les biais, les préjugés existent dans nos cultures, dans nos discours, dans nos écrits, l’IA continuera à produire ces biais et à les renforcer.
Soyons vigilants ensemble, femmes, et hommes et toute la diversité.
Merci pour votre temps.