Intervention de Sasha Rubel

Réunion du jeudi 7 mars 2024 à 8h30
Office parlementaire d'évaluation des choix scientifiques et technologiques

Sasha Rubel, responsable des politiques publiques en IA Europe – Afrique – Moyen-Orient chez Amazon Web Services, membre du réseau d'experts de l'OCDE sur l'IA :

. – Je suis ravie de prendre la suite de Laure Lucchesi sur tous ces exemples passionnants. Je m'excuse d'avance pour mes fautes de français, je genre tous les mots au féminin, comme une sorte d'engagement…

Si vous demandez à un service d'IA générative qui est Sasha Rubel, il vous répondra que je suis une espionne russe, que je suis un formateur de joueurs d'échecs, et que je suis un homme. Je vous assure que ce n'est pas le cas. J'ai passé treize ans à l'ONU à travailler sur la façon de mettre la femme au centre de la transformation numérique. Je travaille désormais chez Amazon Web Services (AWS).

J'aimerais commencer mon propos par une anecdote reflétant l'intervention de M. Jouini. Lorsque je vivais à Dakar, je dirigeais le premier camp de formation de codage destiné aux jeunes femmes. Un jour, une adolescente de 16 ans qui travaillait dans la mode s'est présentée à la porte en indiquant qu'elle ne savait pas si ce chemin était fait pour elle, qu'elle aimait beaucoup travailler dans tout ce qui était créatif. À la fin de la journée de formation, elle m'a dit qu'elle ne s'était pas rendu compte à quel point la technologie pouvait être un chemin vers la créativité. Ainsi, je pense qu'un recadrage est nécessaire s'agissant de la signification du travail dans la technologie.

Personnellement, je ne suis pas bonne en maths. Je suis anthropologue de formation. Mon doctorat était consacré aux enjeux des aspects sociétaux et éthiques de l'intelligence artificielle. L'un des plus grands obstacles à l'adoption de l'IA, en France et au-delà, réside dans le fait que nous manquons de personnes qui se réunissent pour réfléchir à ces enjeux de responsabilité. Le manque de confiance dans ces technologies constitue le principal élément bloquant.

Pour s'assurer de l'adoption de cette technologie de manière responsable, il ne faut pas simplement plus de diversité dans le travail sur la technologie, mais aussi plus de diversité dans les perspectives. La femme se place au centre de ces enjeux.

Aujourd'hui, on a entendu que l'IA était un miroir des biais de notre société. Je dirais plutôt qu'elle agit comme une loupe. J'y vois une opportunité extraordinaire, parce que nous sommes désormais placés face à une réalité que nous ne pouvons plus nier. Cette réalité existe dans nos algorithmes, mais aussi dans nos sociétés. Madame Lavarde, je suis comme vous, très optimiste quant à cette technologie qui peut nous permettre d'affronter les défis qui se dressent devant nous.

Plusieurs intervenants ont déjà partagé des statistiques concernant la présence des femmes dans ce milieu. J'aimerais revenir sur quelques enjeux économiques en la matière. Aujourd'hui, les femmes ont treize fois moins de chances que les hommes de déposer un brevet technologique. Selon l'OCDE, elles ne déposent que 7 % des brevets dans le domaine des nouvelles technologies dans les pays du G20, et seulement 10 % des start-up ont été fondées par des femmes. C'est grave.

Pour que l'IA soit un atout pour l'égalité de genre, nous n'avons pas simplement besoin de plus de femmes dans ce secteur, mais aussi d'équipes diversifiées qui stimulent l'innovation. Ce n'est pas simplement une question éthique, c'est bon pour le monde. Nous nous accordons tous, ici, sur le caractère essentiel de cette diversité. Celle-ci est aussi opportune en termes économiques pour les entreprises françaises. Cultiver la diversité répond à un impératif éthique, mais aussi économique. Les entreprises diversifiées ont 25 % de chances supplémentaires de surpasser leurs concurrentes.

Le Boston Consulting Group (BCG) a constaté que les entreprises affichant une diversité supérieure à la moyenne génèrent, grâce à l'innovation, 45 % de revenus en plus que celles qui affichent une diversité inférieure à la moyenne. En parallèle, l' Institut de recherche du Crédit Suisse a constaté que les sociétés comptant une ou plusieurs femmes au conseil d'administration avaient un rendement moyen des investissements plus élevé et une meilleure croissance moyenne que les entreprises dont le conseil d'administration n'est composé que d'hommes. De plus, les équipes mixtes prennent de meilleures décisions commerciales 73 % du temps.

Ainsi, pour créer des solutions d'IA qui sont bonnes pour la société et pour l'entreprise, la diversité est essentielle.

Ce matin, plusieurs d'entre vous ont souligné l'importance du mentorat. Il ne doit pas se limiter aux femmes. Nous avons aussi besoin d'hommes champions qui championnent des femmes. Un programme au sein d' AWS est consacré à cette question de mentorat. Il encourage les échanges entre les femmes, mais également des « HeForShe champions ». Nous avons besoin de cet aspect de championnat pour les hommes et pour les femmes.

Monsieur Jouini, vous avez évoqué une question de paradoxe du genre, en indiquant que les pays affichant la plus grande égalité de genre comptaient moins de femmes poursuivant des carrières scientifiques. Je pense que nous avons besoin que les équipes qui construisent les systèmes d'IA soient aussi diversifiées que les communautés qui les utiliseront.

Nous pouvons, à mon sens, aborder le défi auquel nous sommes confrontés par le biais des compétences. Dans ce cadre, je salue le travail de la Fondation Abeona. Nous venons de publier un rapport qui étudie le marché français et les obstacles à l'adoption de l'intelligence artificielle. La question des compétences est l'un des principaux éléments bloquants, pour les femmes, mais aussi pour les hommes. 61 % des entreprises ont déclaré une incapacité à trouver du personnel doté des bonnes compétences numériques, ce qui freine leur performance et leur investissement dans l'IA. Du côté des salariés français, la formation est clairement insuffisante. Seuls 13 % des citoyens français suivent des formations pour développer de nouvelles compétences numériques. C'est notamment le coût de ces modules qui les bloque.

Pour cette raison, nous avons investi dans un engagement, AI Ready, qui met à disposition plus de quatre-vingts cours gratuits en ligne. Ils ne forment pas simplement aux enjeux techniques de l'IA, mais aussi aux questions de biais, d'explicabilité, d'équité, de précision. Le sujet n'est pas uniquement technique mais aussi sociologique. Nous devons comprendre que ce n'est pas parce qu'un outil est techniquement faisable que nous devons nécessairement le créer. C'est là que les enjeux de formation deviennent essentiels.

Avant d'en venir aux exemples français, j'aimerais insister sur un certain manque d'investissement en faveur des femmes fondatrices, et un manque d'éducation sur les moyens de transformer des idées géniales en actions en disposant d'une connaissance suffisante de l'entreprise. AWS travaille sur cette dimension avec de multiples partenaires privés et publics pour accompagner des entrepreneures afin qu'elles transforment leurs idées pour les lancer sur le marché. Cet aspect de formation technique, éthique et commerciale est essentiel. Nous n'accompagnons pas que des actifs. Nous avons constaté que les connaissances en IA pouvaient contribuer à une augmentation de salaire pouvant atteindre 47 %. L'indépendance financière de la femme dépend de sa capacité à se mettre au centre de cette révolution technologique qui touchera tous les aspects de notre vie.

Ensuite, comment voyons-nous les risques associés aux données traitées par l'intelligence artificielle ? Il serait naïf de ne pas reconnaître les défis existant dans le déploiement de l'IA, à commencer par le risque lié aux données de recrutement d'industries à prédominance masculine. Si l'on crée des bases de données à partir de ces informations, le résultat sera biaisé. En anglais, on parle de « garbage in, garbage out ». L'IA n'est pas magique. Ainsi, s'il est nécessaire de s'assurer de la diversité des équipes, il faut aussi garantir la diversité des bases de données sur lesquelles les solutions de l'IA sont entraînées. C'est une opportunité extraordinaire pour montrer à quoi notre société pourrait ressembler en gommant les biais.

Ensuite, les enjeux de la reconnaissance faciale utilisant l'IA et des données déséquilibrées en la matière ont fait la une des journaux partout dans le monde. Les risques ne concernent pas que les femmes, mais aussi les autres groupes marginalisés, si la majorité des bases de données ressemblent à la majorité des codeurs qui créent ces systèmes et qui ne sont souvent pas représentatifs de notre société.

Permettez-moi de partager avec vous quelques exemples de ce que nous faisons avec nos clients pour que l'IA devienne un atout pour l'égalité de genre, et ce que nous créons à l'intérieur de notre entreprise pour nous assurer que nos propres bases de données sont limitées en termes de biais.

J'étais ravie que Laure Lucchesi évoque Hugging Face, un grand partenaire d' AWS en France. Avec cet acteur, nous cherchons à mettre à disposition librement des ressources qui aident les développeurs et les entrepreneurs à évaluer les biais dans leur système. Vous avez déjà parlé des pratiques d'embauche et de la possibilité que l'IA soit un risque, mais aussi une opportunité pour assurer un filtrage équitable et accroître le taux d'embauche des femmes. L'un de nos clients a utilisé ce système. Son taux d'embauche de femmes a augmenté de 14 %.

Il est également possible de détecter et signaler les termes biaisés dans les offres d'emploi. En 2018, il s'est avéré que l'outil de recrutement créé par Amazon était biaisé. En réalité, il n'a jamais été lancé à l'externe. Il n'a été testé qu'en version bêta au sein même de l'entreprise. Nous l'avons supprimé quand nous nous sommes aperçus qu'il ne fonctionnait pas. Il n'a donc jamais été utilisé de façon publique.

Cette expérience nous a encouragés à faire mieux, à utiliser les outils de l'intelligence artificielle pour aborder et résoudre les problèmes. Elle nous a menés à créer la solution SageMaker Clarify, qui détecte automatiquement des biais et les supprime des bases de données.

Il est important d'apprendre de ses erreurs, en réalisant ce type d'expérience de manière très contrôlée pour améliorer ses services.

Vous avez évoqué plus tôt les textes juridiques. Cet exemple me semble essentiel, parce qu'il y réside de nombreux biais. C'est également le cas des chatbots. Je n'y reviendrai pas.

J'ai été élevée en Afrique de l'Ouest. J'ai aussi vécu en Éthiopie. À cette époque, je voyais, quand je sortais de mon bureau, que de nombreux élèves, surtout des femmes, étaient adossés à l'immeuble de l'Union africaine. J'ai demandé au chauffeur de taxi pourquoi ces centaines de femmes se trouvaient là à 17 heures, en semaine. Il m'a expliqué qu'elles avaient besoin de WiFi pour étudier. Elles avaient récupéré le code WiFi de l'Union africaine pour télécharger les informations nécessaires et accéder à leurs cours. Elles ne pouvaient pas rentrer chez elles, car elles auraient eu, à leur domicile, d'autres responsabilités. Elles voulaient étudier.

Je fus autodidacte jusqu'au lycée. À l'époque, DHL m'envoyait des cours à distance. L'intelligence artificielle et l'IA générative offrent une opportunité extraordinaire pour combler la faille qui existe en matière d'accès à l'éducation dans les pays en voie de développement, surtout pour des femmes. Chez AWS, nous cherchons également, avec l'aide de partenaires privés et publics, à rendre les contenus d'éducation accessibles au plus grand monde, pour que les femmes ne soient pas laissées à l'écart.

Enfin, Madame Lavarde, vous avez évoqué un sujet essentiel : que représentent ces outils dans le cadre de harcèlement et de sexualisation des femmes en ligne ? Je m'appuierai sur deux cas d'études qui m'ont conduite à intégrer AWS.

En Afrique de l'Ouest, les jeunes femmes n'ont pas accès à un compte en banque, parce qu'elles n'ont pas de carte d'identité nationale. Nous travaillons beaucoup dans les zones rurales pour permettre aux femmes qui n'ont aucune autre manière d'avoir accès à un compte en banque d'y accéder, grâce à l'intelligence artificielle et à travers la reconnaissance faciale, et de jouir ainsi d'une indépendance financière.

Par ailleurs, nous travaillons beaucoup avec l'organisation Thorn, dédiée à l'arrêt de la propagation de contenus d'abus sexuels pour les mineurs, surtout les femmes, et à lutter contre des trafiquants d'enfants, souvent des filles. Avec les services d'intelligence artificielle d' AWS, les outils de Thorn ont permis d'identifier 5 894 victimes de la traite des enfants à des fins sexuelles, et de secourir 103 enfants dont les abus sexuels ont été enregistrés et diffusés. Le délai d'enquête avec l'IA s'est réduit de 65 % grâce à cette technologie.

Plusieurs services d'IA générative, comme Code Whisperer ou SageMaker Clarify enlèvent automatiquement des contenus biaisés en ligne de façon à réduire certains risques.

Comment pouvons-nous rendre opérationnels ces systèmes, en France, mais aussi au-delà ? D'abord, nous devons tester. On parle beaucoup de red teaming dans le cadre du G7. Il ne faut pas lancer sur le marché un outil qui n'est pas testé pour les aspects de l'IA responsable, de biais et de précision.

Ensuite, nous avons besoin de modèles de transparence. Chez AWS, nous créons des service cards qui mettent à disposition du public la donnée entraînée pour créer ce modèle, pour qu'il en comprenne l'origine, les risques, et les façons de l'utiliser ou de ne pas l'utiliser.

Nous devons également adopter une approche interopérable du watermarking, permettant d'identifier un contenu en ligne créé par une intelligence artificielle générative, surtout lorsqu'il s'agit d'un support audiovisuel. Ceux-ci présentent des enjeux particuliers en termes d'égalité femmes-hommes.

Enfin, nous sommes convaincus que la responsabilité amène la confiance, que la confiance encourage l'adoption de l'intelligence artificielle, et que l'adoption de l'IA amène à l'innovation, opportune pour la France et pour le monde. Pour ce faire, nous avons besoin de coopération. Personne ne dispose de réponses à toutes les questions. Pour les obtenir, il est essentiel d'organiser des colloques avec le secteur privé, le secteur public, les chercheurs, la société civile. Ces acteurs peuvent se réunir pour construire l'avenir de cette technologie, en plaçant l'égalité au centre du projet.

Merci beaucoup pour cette initiative.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion