Germain Barré

Dis Siri, es-tu sexiste ?

Crée par les hommes, l'intelligence artificielle reproduit en tout cas des schémas parfois pleins de stéréotypes.

La machine est perçue comme neutre face à tous les biais qui peuvent influencer les comportements humains. Et pourtant l’intelligence artificielle ne serait-elle pas sexiste ?

Biiip… biiip… biiip… d’une légère pression sur l’écran de votre téléphone intelligent vous éteignez la sonnerie de l’alarme qui vous perce les tympans. La seule qui vous réveille encore. Il est 6 h 30. D’une voix endormie vous demandez à Siri de lancer votre toune matinale. Dans la cuisine toujours plongée dans l’obscurité, la voix féminine de l’assistant Google vous annonce la météo et le programme de la journée. Bientôt elle pourra même faire couler votre café avant que vous n’ouvriez les yeux, prendre des rendez-vous à votre place et conduire votre voiture. Il faut vous y faire l’intelligence artificielle est partout. Elle guide nos recherches, traduit nos documents, nous conseille des films et nous dit quoi manger. Elle nous aide à nous informer, à trouver une job ou à mieux nous soigner. Seulement voilà, en plus de nous transformer lentement en véritables assistés l’IA a aussi la fâcheuse tendance de reproduire, voire d’amplifier le pire d’un monde rongé par les inégalités et les stéréotypes. Sexisme et racisme en tête de liste.

Et nous sommes loin de de la caricature si l’on en croit les spécialistes du domaine. La question est même prise très au sérieux, à l’heure où la technologie s’immisce dans les moindres recoins de notre vie quotidienne.

Le fantasme de la femme assistante

Revenons à la douce voix féminine et serviable de l’assistante Google, celle qui pourra bientôt fixer vos rendez-vous chez le coiffeur. Comme elle, la plupart des assistants personnels du type Siri (Apple), Alexa (Amazon) ou Cortana (Microsoft) ont par défaut des traits et des noms à consonance féminine. En somme, des assistantes disponibles 24/24 pour répondre à tous nos besoins virtuels et (très souvent) à un feu nourri d’insultes ou de remarques sexistes.

«D’un point de vue psychologique, le son de la voix féminine, conditionné par notre enfance, réfère directement à la douceur, l’écoute et la bienveillance.»

En 2016, Microsoft admettait que Cortana devait faire face à de nombreuses allusions sexuelles et que — ouf l’honneur est sauf — l’application était désormais programmée pour se mettre en colère si les utilisateurs se « comportaient comme les derniers des connards ». Depuis, les entreprises de technologie n’ont pas vraiment progressé dans cette gestion d’une IA féminine qui revient finalement à disposer d’une servante virtuelle numérique. Bien sûr on peut aujourd’hui paramétrer les assistants pour qu’ils aient une voix masculine et ils se bloquent généralement face à des commentaires déplacés ou renvoient à la définition du harcèlement sexuel. Mais les faits sont là : dans la majorité des cas c’est une voix de femme qui répondra aux consommateurs. Pourquoi ? D’abord parce qu’il semblerait que nous préférions inconsciemment la voix d’une femme« D’un point de vue psychologique, le son de la voix féminine, conditionné par notre enfance, réfère directement à la douceur, l’écoute et la bienveillance », soutient Michel Lejeune, professeur en sociologie de la technologie à Polytechnique Montréal dans une interviewpour InfoPresse.

Un manque de mixité dans le monde du numérique

Si cette préférence est profondément ancrée dans notre inconscient, le professeur rappelle toutefois qu’elle est avant tout le résultat d’un conditionnement social qui perdure parce qu’il n’est pas remis en question. En cause notamment : une sous-représentation des femmes dans le monde des nouvelles-technologies, largement dominé par les hommes estime de nombreux experts. « C’est clair qu’il y a un problème de mixité. La majorité des personnes qui codent les algorithmes d’intelligence artificielle sont des hommes blancs entre 25 et 35 ans. Les hommes n’ont pas la même vision du monde que les femmes, et forcément ça pèse dans la balance quand il s’agit de développer un algorithme », explique Valérie Bécaert, directrice du groupe de recherche chez Element AI.

Lorsque l’on développe des technologies qui transforment en profondeur la société, les questions de diversité et d’impact des biais humains sur les algorithmes peuvent être lourdes de conséquences. La façon dont fonctionne l’IA du service de traduction de Google est un bon exemple pour bien saisir les dérives possibles des biais humains. Quand on passe du turc, langue complètement neutre, à l’anglais Google translate propose une traduction genrée complètement stéréotypée de certains mots. Il attribue ainsi aux femmes les rôles d’amoureuses, d’infirmières ou cuisinières. Aux hommes ceux de célibataires, d’ingénieurs ou de docteurs.

« L’IA n’est que le reflet de notre société »

Au-delà de ce manque crucial de mixité, l’exemple de Google translate questionne également sur la neutralité des algorithmes et des données dont se nourrit l’intelligence artificielle pour fonctionner (machine learning). Vous l’aurez compris, les deux peuvent être biaisés à différents degrés. Quand je demande à Valérie Bécaert, si l’intelligence artificielle est neutre, elle me répond du tac au tac, un brin second degré : « Est-ce qu’un fusil c’est neutre ? … Dans une société individualiste comme la nôtre, n’importe quels outils peuvent être dangereux, l’IA n’y échappe pas. Il faut bien comprendre que ce n’est pas l’intelligence artificielle qui est sexiste ou bien raciste, mais que ce sont les algorithmes et les données qui sont biaisées par l’homme et l’utilisation que l’on en fait qui pose question. L’IA et les données ne sont finalement que le reflet de notre société ».

Rappelez vous de Tay, le bot conversationnel de Microsoft lancé en 2016, qui se retrouve après quelques tweets à tenir des propos sexistes et racistes alors que la promesse de la firme américaine était que plus il s’entretiendrait avec des humains plus son intelligence se développerait. Rapidement déconnecté, le comportement de Tay s’explique en partie par le fait que le jeu de données sur lequel il s’est développé n’est qu’un triste reflet de notre société.

N’importe quels outils peuvent être dangereux, l’IA n’y échappe pas. Il faut bien comprendre que ce n’est pas l’intelligence artificielle qui est sexiste ou bien raciste, mais que ce sont les algorithmes et les données qui sont biaisées par l’homme et l’utilisation que l’on en fait qui pose question.

Et les exemples sont nombreux. Ainsi à l’Université de Boston, une équipe de recherche a entraîné un algorithme d’intelligence artificielle sur des textes tirés de Google News. Quand ils ont ensuite demandé à la machine de compléter la phrase « Man is to computer programer as woman is to X », elle a simplement répondu « homemaker ». Il est facile d’imaginer une IA qui oriente dans les choix de formation proposera naturellement à une femme de se diriger vers la médecine ou le droit et à un homme de choisir l’informatique s’il se base uniquement sur des données des cinq dernières années.

Arrivé là vous l’avez compris, l’intelligence artificielle n’est pas sexiste, ce n’est finalement qu’une machine, mais les données qu’elle analyse, l’algorithme qui la dirige et les résultats qu’elle produit le sont régulièrement. La question inquiète notamment parce qu’elle risque de multiplier les facteur d’inégalité « dans un milieu où l’on cherche avant tout a améliorer la société, la condition humaine », détaille Valérie Bécaert. « Aujourd’hui nous nous tournons de plus en plus vers de nouveau schémas de machine learning (vers l’apprentissage renforcé) pour contourner ces biais. Mais la technique n’est pas toujours adaptée et il est difficile de changer la donne si le jeu de données est vecteur d’inégalité. Avec le machine learning on cherche à représenter une réalité, alors on ne peut pas altérer les données ». Pour que les données changent, c’est bien la société qui doit se transformer, « et pour cela l’outil le plus important c’est l’éducation. Pour mieux attirer les femmes vers le numérique, pour promouvoir la mixité et transformer les milieux de travail encore trop masculins ou pour sensibiliser aux questions d’éthique lors de la conception de la machine. Le développement de l’IA annonce des bouleversements majeurs, s’il peut nous pousser à être de meilleures personnes c’est positif ».

Il ne reste plus qu’à saisir cette opportunité algorithmique pour panser les maux de notre société. En attendant vous pouvez toujours vous mettre a écouter Westworld, histoire d’avoir un aperçu très philosophique et légèrement tordu de ce qui vous attend en matière d’intelligence artificielle.

Du même auteur

Vous n'allez pas rester là sans rien dire ?
Faites-vous entendre...

mode_comment Afficher les commentaires keyboard_arrow_down keyboard_arrow_up

Dans la même catégorie

Les modérateurs Facebook vivent l’horreur au travail

De façon quotidienne, ils sont témoins de gestes ignobles filmés et diffusés sur la plateforme sociale.

Dans le même esprit