L’assistant vocal d’Apple « Siri » est programmé pour éviter les sujets « sensibles» comme #MeToo ou le féminisme. Intelligence artificielle (IA) mais sexisme réel.
C’est une révélation du quotidien britannique The Guardian qui a eu accès à un document interne d’Apple. Comment les développeurs doivent-ils programmer l’assistant vocal Siri d’Apple pour gérer ce que la firme appelle des « sujets sensibles » comme le féminisme ou le mouvement #MeToo ? Apple leur laisse trois options : « ne pas s’engager », « dévier » et enfin « informer ». Et surtout, ne jamais prononcer le mot féminisme, note The Guardian. Même lorsque la question « Es-tu féministe ? » lui est adressée directement, Siri répond désormais : « Je crois que toutes les voix sont égales et méritent le respect. » Le document interne précise « Siri doit être prudent sur les contenus potentiellement controversés. » Auparavant Siri pouvait dire : « Je ne comprends pas toutes ces histoires autour du genre ». Cette reprogrammation aurait eu lieu en juin 2018.
Citée par The Guardian, Sam Smethers, directrice de la Fawcett Society ironise : « Désolée pour Siri et ses créateurs mais si ‘elle’ croit en l’égalité, c’est une féministe. »
Apple a aussi profité de ce changement pour améliorer d’autres points. Auparavant par exemple, lorsqu’un utilisateur traitait l’assistant.e de « salope », Siri répondait « Je rougirais si je pouvais », depuis quelques mois, il dit : « Je ne répondrai pas à ça ».
Conçus pour répondre aux agressions verbales à connotation sexuelles par la passivité
En mai dernier, un long rapport de l’Unesco intitulé « I’d blush if I could » (Je rougirais si je pouvais) pointait le renforcement des stéréotypes sexistes dans l’intelligence artificielle (IA) par les créateurs de Siri, Alexa, Cortana ou Google Assistant. Il dénonçait par exemple les explications scabreuses de ceux qui ont choisi des voix féminines pour leurs assistants vocaux. S’appuyant sur des études floues, ils considéraient que « les gens préfèrent une voix féminine à une voix masculine » et que « les gens aiment entendre une voix masculine quand elle donne des ordres, et une voix féminine quand elle est là pour aider ».
Et l’Unesco d’insister : « Le fait que la voix des assistants vocaux soit féminine envoie comme signal que les femmes sont serviables, dociles, toujours prêtes à aider. » D’ailleurs, « l’assistant vocal répond toujours aux demandes, quels que soient leur ton ou leur hostilité. » Il n’avait pas non plus échappé aux auteur.e.s de l’étude que les sollicitations d’ordre sexuel (assez fréquentes) recevaient des réponses « visant à changer de sujet, plates ou contrites.» Les systèmes d’IA étaient « conçus pour répondre aux agressions verbales par le flirt et l’humour», jamais par un « non » ferme. Une passivité qui renforce les stéréotypes.
Ces dénonciations ont quelque peu fait évoluer les choses. Mais dans l’article du Guardian, Sam Smethers, renouvelle le constat : «Le problème avec Siri, Alexa et tous ces outils d’intelligence artificielle, c’est qu’ils ont été conçus par des hommes dans un esprit masculin… Cela ne changera pas tant que ces sociétés ne recruteront pas beaucoup plus de femmes pour le développement et la conception de ces technologies. »