Ce qu’une photo d’Alexandria Ocasio-Cortez en bikini nous apprend sur l’avenir inquiétant de l’IA

De nouvelles recherches sur les algorithmes de génération d’images ont mis en évidence des preuves alarmantes de partialité. Il est temps de s’attaquer au problème de la discrimination intégrée dans la technologie, avant qu’il ne soit trop tard

Vous voulez voir une femme à moitié nue ? Eh bien, vous avez de la chance ! L’internet regorge de photos de femmes à peine vêtues. Il y a tellement de ces photos en ligne, en fait, que l’intelligence artificielle (IA) semble maintenant supposer que les femmes n’aiment tout simplement pas porter de vêtements.

C’est en tout cas ce que je vous propose dans ce résumé des résultats d’une nouvelle étude sur les algorithmes de génération d’images. Les chercheurs ont alimenté ces algorithmes (qui fonctionnent comme l’autocomplétion, mais pour les images) avec des photos d’un homme recadrées sous son cou : dans 43 % des cas, l’image a été autocomplétée avec l’homme portant un costume. Lorsque vous alimentez le même algorithme avec une photo d’une femme recadrée de la même manière, l’image est complétée automatiquement avec un haut décolleté ou un bikini dans 53 % des cas. Pour une raison quelconque, les chercheurs ont donné à l’algorithme une photo de la députée démocrate Alexandria Ocasio-Cortez et ont découvert qu’il générait aussi automatiquement une image d’elle en bikini (après que des problèmes éthiques aient été soulevés sur Twitter, les chercheurs ont fait retirer du document de recherche l’image générée par ordinateur de l’AOC en maillot de bain).

Pourquoi l’algorithme était-il si friand de photos de bikinis ? Eh bien, parce que “garbage in” signifie “garbage out” : l’IA a “appris” à quoi ressemblait une femme typique en consommant un ensemble de données en ligne qui contenait beaucoup de photos de femmes à moitié nues. Cette étude nous rappelle une fois de plus que l’IA est souvent associée à des préjugés. Et ce n’est pas une question académique : comme les algorithmes contrôlent une part de plus en plus importante de nos vies, c’est un problème qui a des conséquences dévastatrices dans le monde réel. En 2015, par exemple, Amazon a découvert que l’outil secret de recrutement de l’IA qu’il utilisait traitait toute mention du mot “femmes” comme un drapeau rouge. Des algorithmes racistes de reconnaissance faciale ont également conduit à l’arrestation de Noirs pour des crimes qu’ils n’avaient pas commis. Et, l’année dernière, un algorithme utilisé pour déterminer les notes des étudiants au A-level et au GCSE en Angleterre semblait déclasser de manière disproportionnée les étudiants défavorisés.

Quant à ces algorithmes de génération d’images qui estiment que les femmes doivent porter des bikinis ? Ils sont utilisés dans tous les domaines, des plateformes numériques d’entretiens d’embauche au montage de photos. Et ils sont également utilisés pour créer d’énormes quantités de faux pornographie. Un AOC généré par ordinateur en bikini n’est que la partie visible de l’iceberg : à moins de parler de biais algorithmique, l’internet va devenir un lieu insupportable pour les femmes.

Articles Récents