__________________________________________________

“Take me to your leader”.

Une phrase mythique, LA phrase que devraient nous déclamer les premiers extraterrestres “déclarés” et “officiels”. Quand je dis ça, je jette de l’eau sur la mèche qu’allumeraient ceux qui voudraient m’asséner que les premiers extraterrestres sont là depuis longtemps. Je ne dis pas que ce sont des conneries. Je dis juste que ce n’est pas acté et/ou prouvé. Ce qui rend le questionnement et la réflexion d’autant plus nécessaires et enrichissants.

On pourrait faire un livre complet pour savoir vers qui il faudrait aiguiller ces ambassadeurs exogènes. Nous avions d’ailleurs essayé de répondre très partiellement à cette question sur BLTV dans une émission enregistrée avec Yves Carra et l’ami Michel Ribardière. 

s03e023 – Pascal Fechner et Michel Ribardière – L’exo-politique

__________________________________________________

“Take me to your leader”. Une phrase que nous pourrions dire peut-être nous aussi à une civilisation exogène que nous aurions détecté et contacté avant qu’elle puisse venir nous voir. 

La chair reste faible, et il est très envisageable que les premiers pionniers spatiaux (en tout cas concernant notre espèce) soient robotiques. Reste à définir quelle sera leur autonomie et leurs capacités. C’est là qu’entre en jeu l’IA. Alors, oui, parler d’IA dans Maybe Planet a tout son sens.

Je suis tombé sur cet article, The Whiteness of AI, qui indique que nous sommes en train de rendre l’IA… blanche ! Non, ce n’est pas une pirouette politico-bienpensante qui est développée ici, mais bien un constat. Et si une IA doit à terme représenter notre planète, il serait souhaitable qu’elle soit une réelle représentation de ce que nous sommes dans notre totalité. Pas juste une partie de notre espèce.

L’autre enjeu de cette programmation ? Que cette IA, toute machine qu’elle soit, puisse nous apprendre ce que nous défini réellement, au delà de notre couleur de peau, de notre culture ou de nos idéologies. Et rien que pour ça, l’enjeu en vaut très largement la peine.

Lien vers l’article :

https://link.springer.com/article/10.1007/s13347-020-00415-6

__________________________________________________

La blancheur de l’IA

Stephen Cave et Kanta Dihal

Résumé

Cet article se concentre sur le fait que l’IA est principalement représentée comme blanche – en couleur, en appartenance ethnique ou les deux. Nous illustrons d’abord la blancheur prédominante des machines intelligentes réelles et imaginaires dans quatre catégories: robots humanoïdes, chatbots et assistants virtuels, images d’archives de l’IA et représentations de l’IA au cinéma et à la télévision. Nous proposons ensuite trois interprétations de la blancheur de l’IA, en s’appuyant sur la théorie critique de la race, en particulier l’idée du cadre racial blanc. Premièrement, nous examinons dans quelle mesure cette blancheur pourrait simplement refléter les milieux à prédominance blanche d’où proviennent ces artefacts. Deuxièmement, nous soutenons qu’imaginer des machines intelligentes, professionnelles ou puissantes revient à imaginer des machines blanches parce que le cadre racial blanc attribue ces attributs principalement aux Blancs. Troisième, nous soutenons que l’IA racialisée en tant que blanche permet un effacement complet des personnes de couleur de l’imaginaire utopique blanc. Enfin, nous examinons les conséquences potentielles de la racialisation de l’IA, affirmant qu’elle pourrait exacerber les préjugés et les inquiétudes erronées.

Dans l’ensemble, j’interprète la race, la racialisation et les identités raciales comme des ensembles continus de relations politiques qui nécessitent, à travers une perpétuation constante via des institutions, des discours, des pratiques, des désirs, des infrastructures, des langues, des technologies, des sciences, des économies, des rêves et des artefacts culturels, l’exclusion des sujets non blancs de la catégorie de l’humain telle qu’elle est réalisée dans l’Occident moderne.

Alexander G. Weheliye (Weheliye 2014 , 2)

La technologie en tant que concept abstrait fonctionne comme une mythologie blanche.

Joel Dinerstein (Dinerstein 2006, 570)

introduction

C’est une vérité peu reconnue qu’une machine en possession d’intelligence doit être blanche. Taper des termes comme «robot» ou «intelligence artificielle» dans un moteur de recherche donnera une prépondérance d’images de stock d’humanoïdes en plastique blanc. Peut-être plus remarquable encore, ces machines ne sont pas seulement de couleur blanche, mais plus elles sont humaines, plus leurs caractéristiques sont ethniquement blanches.note de bas de page1 Dans cet article, nous problématiser le souvent inaperçu et unremarked-sur fait quemachines intelligentes sont principalement conçus et présentés comme Blanc. Nous soutenons que cette blancheur éclaire à la fois les particularités de ce que la société (occidentale anglophone) espère et craint de ces machines, et situe ces affects dans des structures idéologiques de longue date qui relient la race et la technologie.

La race et la technologie sont deux des catégories les plus puissantes et les plus importantes pour comprendre le monde tel qu’il s’est développé depuis au moins le début de la période moderne. Pourtant, comme plusieurs chercheurs l’ont noté, leur enchevêtrement profond reste sous-étudié (Sinclair 2004 ; de la Peña 2010 ). Il y a un certain nombre de raisons possibles à cela – et, comme l’écrit Bruce Sinclair, «les préjugés raciaux les dominent toutes» (Sinclair 2004, 1). Ils comprennent le manque de récits de première ou de seconde main sur le rôle des personnes de couleur dans le développement et l’utilisation de la technologie; stéréotypes persistants sur la technologie en tant que province et produit d’un groupe racial particulier – les Blancs; et la tendance persistante des membres de ce groupe, qui dominent l’académie aux États-Unis et en Europe, à refuser de se considérer comme racialisés ou de race comme un sujet de préoccupation.

Ce manque d’attention scientifique est surprenant car, comme Michael Adas l’a élucidé en 1989, l’idée de supériorité technologique était essentielle à la logique du colonialisme. Non seulement des armes et des moyens de transport supérieurs (etc.) étaient nécessaires pour la conquête et le contrôle à grande échelle de territoires étrangers, mais cela faisait également partie de sa justification: la preuve que les Européens blancs étaient une civilisation avancée avec le droit de régner sur les autres (Adas 1989 ) . Heureusement, ce manque d’attention est de plus en plus corrigé, et la relation entre la race et la technologie commence à attirer le genre d’attention accordée depuis les années 1970 au genre et à la technologie, à la suite des travaux pionniers de Donna Haraway, Sandra Harding et Evelyn Fox Keller (Haraway 1991 ; Harding 1986; Keller 1985 ). Cela comprend l’attention portée aux technologies numériques omniprésentes de ce siècle. En 2006, Lisa Nakamura a demandé: «Comment faire des études sur la cyberculture un domaine qui, bien sûr, utilise la théorie critique des races et les théories de la différence culturelle…?» (Nakamura 2006 , 35). Depuis lors, un certain nombre de travaux importants ont tenté de faire exactement cela, notamment les algorithmes d’oppression de Safiya Noble et Race After Technology de Ruha Benjamin (Noble 2018 ; Benjamin 2019 ).

Cet article vise à contribuer à ce corpus de littérature sur la race et la technologie en examinant comment l’idéologie de la race façonne les conceptions et les représentations de l’intelligence artificielle (IA). Notre approche est fondée sur la philosophie de la race et de la théorie critique de la race, en particulier les théories féministes noires des crochets de cloche, Sylvia Wynter et Alexander G.Wheliye (hooks 1992 1997 ; Wynter 2003 ; Weheliye 2014 ), et travaille dans des études sur la blancheur, y compris que de Richard Dyer, Joe R. Feagin et Ruth Frankenberg (Dyer 1997 ; Feagin 2013 ; Frankenberg 1997a). En 2006, Feagin a inventé le terme «cadre racial blanc» pour décrire les aspects de la vision du monde occidentale anglophone qui perpétuent une hiérarchie racialisée du pouvoir et des privilèges (Feagin 2006 ). Selon ses propres termes, «le cadre racial blanc comprend un ensemble large et persistant de stéréotypes raciaux, de préjugés, d’idéologies, d’interprétations et de récits interdépendants et d’images visuelles» (Feagin 2013, xi). Bien qu’il ait atteint son apogée à l’ère de l’expansion coloniale, ce cadrage persiste: «Aujourd’hui, alors que les Blancs évoluent dans leur vie, ils combinent fréquemment stéréotypes et préjugés raciaux (un aspect de croyances), métaphores et concepts raciaux (un aspect cognitif plus profond), les images racialisées (l’aspect visuel), les émotions racialisées (sentiments), les récits raciaux interprétatifs et les inclinations à discriminer dans un large cadre racial »(Feagin 2013 , 91). En substance, cet article examine comment les représentations de l’IA reflètent ce cadre racial blanc.

L’un des principaux objectifs de la théorie critique des races en général, et des études sur la blancheur en particulier, est d’attirer l’attention sur le fonctionnement de la blancheur dans la culture occidentale. Le pouvoir des signes et des symboles de Whiteness réside dans une large mesure dans le fait qu’ils passent inaperçus et incontestés, dissimulés par le mythe du daltonisme. Comme l’ont noté des chercheurs tels que Jessie Daniels et Safiya Noble, ce mythe du daltonisme est particulièrement répandu dans la Silicon Valley et dans la culture technologique environnante, où il sert à empêcher un interrogatoire sérieux sur le cadrage racial (Daniels 2013 , 2015 ; Noble 2018 ). Par conséquent, la première étape d’un tel interrogatoire est, selon les termes de Richard Dyer, de «rendre étrange» cette blancheur, de la dénormaliser et d’attirer l’attention sur elle (Dyer 1997, dix). Comme le dit Steve Garner, la raison «pour déployer la blancheur comme lentille est qu’elle dépouille une identité normative privilégiée de son manteau d’invisibilité» (Garner 2007 , 5). C’est notre intention première en examinant les machines intelligentes à travers le cadre racial blanc.

Dans la section suivante de cet article, nous exposons d’abord les preuves actuelles de l’affirmation selon laquelle les conceptions et les représentations de l’IA – à la fois incarnées en tant que robots et désincarnées – sont racialisées, puis nous prouvons que ces machines sont principalement racisées en tant que blanches. Dans la troisième section de l’article, nous proposons nos lectures de cette blancheur. Nos méthodes sont qualitatives. Comme l’écrit de la Peña: «Étudier la blancheur signifie travailler avec des preuves plus interprétatives que tangibles; cela nécessite des analyses imaginatives du langage et la satisfaction d’identifier les motivations possibles des sujets, plutôt que des trajectoires définitives d’innovation, de production et de consommation »(de la Peña 2010, 926). Nous proposons trois interprétations de la blancheur de l’IA. Premièrement, la normalisation de la blancheur dans l’Ouest anglophone peut expliquer en partie pourquoi les produits de cette sphère, y compris les représentations de l’IA, sont blancs. Mais nous soutenons que cet argument à lui seul est insuffisant. Deuxièmement, nous soutenons qu’imaginer une machine intelligente (autonome, agentielle, puissante), c’est imaginer une machine blanche parce que le cadre racial blanc attribue ces attributs principalement aux Blancs. Troisièmement, nous soutenons que l’IA racialisée en tant que blanche permet un effacement complet des personnes de couleur de l’imaginaire utopique blanc. Ces machines sont conçues comme des outils qui remplaceront les tâches «sales, ternes ou dangereuses» (Murphy 2000, 16), y compris en remplaçant les interactions humaines considérées comme métaphoriquement sales: les serviteurs de robots blancs permettront au maître blanc de vivre une vie d’aisance sans tache par l’interaction avec des personnes d’autres races.

Voir la blancheur de l’IA

Notre préoccupation dans cet article est la racialisation (en tant que Blanc) de machines à la fois réelles et imaginaires qui sont impliquées ou prétendument intelligentes. Par racialisation, nous entendons l’attribution de caractéristiques qui sont utilisées pour identifier et délimiter les races dans un cadre racial donné, qui dans ce cas est l’Occident anglophone. Notes de Feagan:

Parmi les ingrédients les plus importants de ce cadre sont: (1) l’utilisation récurrente de certaines caractéristiques physiques, telles que la couleur de la peau et les traits du visage, pour différencier les groupes sociaux; (2) le lien constant entre les caractéristiques physiques et les caractéristiques culturelles; et (3) l’utilisation régulière de distinctions physiques et culturelles liées pour différencier les groupes socialement «supérieurs» et «inférieurs» dans une hiérarchie sociale (Feagin 2013 , 41).

Il convient de noter que les «caractéristiques physiques» ne doivent pas se référer uniquement à celles qui sont visibles: la voix et l’accent sont également utilisés comme marqueurs pour la catégorisation sociale. De même, la catégorie «caractéristiques culturelles» est également largement utilisée et peut inclure des marqueurs tels que le dialecte, les manières et les codes vestimentaires, ainsi que des qualités mentales et morales, telles que la diligence, le dynamisme, la fiabilité, la fiabilité, l’inventivité et la capacité intellectuelle. En effet, ces qualités mentales et morales ont toujours été une partie essentielle du cadre racial, car c’est en grande partie sur la base de celles-ci que des revendications de supériorité ou d’infériorité ont été faites.

Les machines peuvent être racialisées

Il a été démontré empiriquement que les machines peuvent être racialisées, en ce sens qu’elles peuvent recevoir des attributs qui permettent leur identification avec les catégories raciales humaines. Par exemple, dans une étude, Christoph Bartneck et ses collègues ont pris des photos du robot humanoïde Nao et ajuster la coloration pour correspondre à la couleur de la peau d’images stock de blanc et les Noirs (Bartneck et al. 2018). Ils ont ensuite demandé aux participants de définir la race du robot avec plusieurs options dont «ne s’applique pas». Une minorité – allant de 7 à 20% dans les expériences – a choisi l’option «ne s’applique pas», tandis qu’une majorité – allant de 53 à 70% – a identifié les robots comme appartenant à la race dont dérivait leur coloration. Ils ont conclu: «Les participants ont pu identifier facilement et en toute confiance la race des robots en fonction de leur racialisation […] Ainsi, il y a aussi un sens clair dans lequel ces robots – et par extension d’autres robots humanoïdes – ont une race» (Bartneck et al.2018 , 201).

Cela ne devrait pas être surprenant. De nombreuses machines sont anthropomorphisées – c’est-à-dire conçues pour ressembler à l’homme dans une certaine mesure – afin de faciliter l’interaction homme-machine. Cela peut impliquer des caractéristiques physiques évidentes (une tête sur le dessus, deux yeux, une bouche, quatre membres, bipédie, etc.), mais cela peut également inclure des caractéristiques invisibles telles qu’une voix humaine, ou des interactions de type humain, telles que politesse ou humour. Étant donné la prédominance du cadrage racial, dans la plupart des contextes, être semblable à un humain signifie avoir une race. Par conséquent, comme le soulignent Liao et He dans leur discussion sur la racialisation des chatbots psychothérapeutiques, «l’identité raciale fait partie intégrante des agents anthropomorphisés» (Liao et He 2020, 2). Ils explorent ensuite un certain nombre d’indices raciaux pour les agents virtuels, y compris des indices visuels tels que la couleur de la peau, mais aussi des signifiants culturels tels que des noms (par exemple pour les noms masculins, Jake comme blanc, Darnell comme noir et Antonio comme hispanique). De même, «même les échanges conversationnels textuels» – c’est-à-dire sans aucune composante visuelle – «réalisent une identité raciale ou ethnique» à travers le choix du dialecte des interlocuteurs, etc. (Marino 2014 , 3).

Compte tenu de l’importance sociopolitique du cadre racial dans la structuration des interactions des gens, si les machines sont vraiment racialisées, alors on s’attend à ce que cela ait un impact sur la façon dont les gens interagissent avec ces machines. De nombreuses études le montrent. Par exemple, Liao et He ont constaté que la «proximité interpersonnelle perçue» d’une personne avec un agent virtuel est plus élevée lorsque l’agent virtuel a la même identité raciale que cette personne (Liao et He 2020 , 2). D’autres études reflètent la mesure dans laquelle le racisme – traitement préjudiciable fondé sur la race – est intrinsèque au cadre racial.

Comme détaillé dans leur article «Les robots racialisés dans la ressemblance des identités sociales marginalisées sont sujets à une plus grande déshumanisation que ceux racialisés comme blancs», Strait et al. analysé les réponses en ligne de forme libre à trois vidéos, chacune représentant un androïde de sexe féminin avec une identité raciale différente: noir, blanc et est-asiatique. Leur objectif était d’évaluer si le même type de commentaire marginalisant et déshumanisant appliqué à de vraies personnes de couleur serait appliqué à ces robots. Ils ont constaté que la valence du commentaire était significativement plus négative envers le robot noir que vers les blancs ou asiatiques et que les deux robots asiatiques et noirs ont été soumis à deux fois plus de commentaires déshumanisant que le robot blanc (détroit et al. 2018 ).

Deux études récentes ont examiné plus en détail le transfert de biais aux machines en utilisant le paradigme du «biais de tireur». Ce paradigme a été décrit pour la première fois dans le document de 2002 «Le dilemme du policier: utiliser l’ethnicité pour lever l’ambiguïté sur des individus potentiellement menaçants» (Correll et al. 2002 ). Il utilisait un jeu vidéo simple avec des images de (vraies) cibles mâles en noir et blanc, chacune tenant soit une arme à feu ou un objet non menaçant. Les participants ont reçu pour instruction de ne tirer que sur des cibles armées. Un parti pris racial évident a été identifié: «les participants ont tiré sur une cible armée plus rapidement lorsqu’il était afro-américain que lorsqu’il était blanc, et ont décidé de ne pas tirer sur une cible non armée plus rapidement lorsqu’il était blanc que lorsqu’il était afro-américain» (Correll et al. 2002, 1325). Les études de Bartneck et al. et Addison et al. a utilisé la même méthodologie pour examiner si ce «biais de tireur» serait transféré aux robots racialisés (Bartneck et al. 2018 ; Addison et al. 2019 ). Ils ont constaté que «les gens montraient un biais de tir similaire envers les robots racialisés en tant que Noirs par rapport aux Blancs de la même manière qu’ils l’ont montré envers les humains Noirs contre Blancs, quelle que soit leur race» (Addison et al. 2019 , 493).

La blancheur comme norme pour les machines intelligentes

La section précédente montre que la recherche a démontré empiriquement que les machines peuvent être racialisées et que cette racialisation comprend le transfert des préjugés associés trouvés dans le monde humain. Dans cette sous-section, nous examinerons les preuves de la mesure dans laquelle les systèmes d’IA – des machines censées être intelligentes – sont principalement racialisés en tant que Blancs. Nous examinerons brièvement quatre catégories: les vrais robots humanoïdes, les assistants personnels virtuels, les images d’archives de l’IA et les représentations de l’IA au cinéma et à la télévision.

La blancheur des robots humanoïdes

Un certain nombre de commentateurs ont remarqué la blancheur prépondérante des robots humanoïdes. Dans leur «code d’éthique» proposé pour l’interaction homme-robot, Riek et Howard notent «le manque de diversité dans la morphologie et le comportement des robots»:

En termes de race, à quelques rares exceptions près, comme le Bina48 de Hanson, la grande majorité des robots androïdes et gynoïdes sont asiatiques ou caucasiens dans leurs caractéristiques sans raison discernable. En outre, la plupart de ces robots ont tendance à avoir une conception euro-centrée en ce qui concerne leur apparence, leur comportement et leur voix. (Riek et Howard 2014 , 4)

Les chercheurs en interaction homme-machine Christoph Bartneck et ses collègues, qui ont mené certaines des études citées ci-dessus, ont également noté que les robots sont généralement racialisés en tant que Blancs: «la plupart des principales plates-formes de recherche en robotique sociale, y compris Nao, Pepper et PR2, sont stylisées avec des matériaux blancs et sont vraisemblablement blanches »(Bartneck et al. 2018 , 202). Enfin, les études médiatiques et la chercheuse en littérature Jennifer Rhee note la «normalisation et l’universalisation de la blancheur» exprimée à la fois dans les recherches antérieures en robotique et dans les jouets robotiques: «Kismet, avec ses yeux bleus, ses sourcils marron clair et ses oreilles roses, normalise également la blancheur. ‘, comme le font d’autres compagnons robots, tels que la Cindy Smart Doll aux cheveux blonds et aux yeux bleus et My Friend Cayla aux yeux bleus et aux cheveux blonds. ” (Rhee 2018, 105).

Bien que des robots tels que Nao et Pepper aient connu un succès commercial, aucun n’a reçu toute l’attention que Sophia a attiré de Hanson Robotics. Cette machine se compose avant tout d’une tête humanoïde blanche, parfois également avec un torse supérieur (voir Fig.  1 ). Il a non seulement donné de nombreuses interviews télévisées très médiatisées, mais a également reçu des honneurs politiques, notamment en 2017 obtenant la citoyenneté saoudienne et devenant un «champion de l’innovation» pour le Programme des Nations Unies pour le développement (Weller 2017 ; PNUD 2017 ).

Fig. 1
Figure 1

Sophia. Hanson Robotics, avril 2020

La blancheur des chatbots et des assistants virtuels

Bien que les agents conversationnels ne présentent aucun indice racial visuel, ils sont racialisés au moyen de marqueurs sociolinguistiques (Sweeney 2016 ; Villa-Nicholas et Sweeney 2019 ). Discutant d’ELIZA, un programme influent de traitement du langage naturel créé par Joseph Weizenbaum au MIT AI Laboratory en 1966, Mark Marino écrit: «Si ELIZA présentait un robot qui tentait d’imiter la langue, il exécutait un anglais standard de la classe moyenne blanche, sans identifiant l’inflexion culturelle … langue sans culture, désincarnée, hégémonique et, en un mot, blanche »(Marino 2014, 5). Depuis lors, le traitement du langage naturel est entré dans le courant dominant, avec des «assistants virtuels» existant dans les poches, les sacs à main ou les maisons de nombreuses personnes via des appareils tels que les smartphones. En effet, c’est l’une des manières les plus courantes d’interagir avec une technologie que l’on pourrait qualifier d ‘«IA». Ces outils présentent à leurs concepteurs de nombreuses décisions sur le positionnement socioculturel. Ruha Benjamin se souvient de cette anecdote:

Un ancien employé d’Apple qui a déclaré qu’il n’était «ni noir ni hispanique» a décrit son expérience au sein d’une équipe qui développait la reconnaissance vocale pour Siri, le programme d’assistant virtuel. Alors qu’ils travaillaient sur différents dialectes anglais – anglais australien, singapourien et indien – il a demandé à son patron: «Qu’en est-il de l’anglais afro-américain?» À cela, son patron a répondu: “Eh bien, les produits Apple sont destinés au marché haut de gamme.” (Benjamin 2019 , 28)

À titre d’exemple supplémentaire, elle décrit un informaticien noir qui a choisi une voix blanche pour son application plutôt qu’une voix noire, afin de ne pas «créer de frictions» (Benjamin 2019 , 28-29). Ainsi, alors que certains créateurs peuvent inconsciemment racialiser leurs produits en tant que Blancs, d’autres le font en pleine conscience de ce choix.

La blancheur des images de stock d’IA

Comme tous ceux qui travaillent dans ce domaine le savent, les images d’archives de l’IA, du moins lorsqu’elles sont anthropomorphisées, sont extrêmement blanches et sans doute extrêmement blanches. Plus ces machines deviennent réalistement humanoïdes, plus leurs traits sont caucasiens. Ces images sont utilisées pour illustrer non seulement des articles de journaux généralistes et des diaporamas d’entreprise, mais aussi des travaux spécialisés et techniques, et même des travaux de nature critique, comme Artifictional Intelligence de Harry Collins (Polity, 2018) et The Culture of AI (Routledge, 2018) d’Anthony Elliott 2018) (Fig.  2 ).

Fig. 2
Figure 2

Couvertures de Collins 2018, Polity et Elliott 2018, Routledge

La prévalence de ces images se reflète dans les résultats des moteurs de recherche. Ces recherches sont un indicateur utile de la façon dont un sujet est représenté à un moment donné, pour deux raisons. Premièrement, les moteurs de recherche sont très largement utilisés (environ 3,5 milliards de recherches sont effectuées sur Google chaque jour, soit 40000 par secondenote de bas de page2) et peut donc être considérée comme une source d’informations et de perceptions très influente. Deuxièmement, la nature de ces moteurs de recherche signifie qu’ils ne font pas que promouvoir certaines idées et perceptions, mais reflètent également leur prévalence existante. Bien que la nature exacte des algorithmes de recherche, de classement et de présentation des résultats de Google soit propriétaire, nous savons qu’ils évaluent (grossièrement) l’influence et la popularité, par exemple en fonction du nombre d’autres sites liés à un site Web donné. Ainsi, le fait que certaines images soient affichées lorsque quelqu’un recherche un terme pertinent signifie non seulement que ces images sont ainsi promues par certains des organes de médiation de contenu les plus puissants qui existent aujourd’hui, mais aussi que ces images sont déjà répandues et utilisées sur d’autres sites Web influents,

Par conséquent, les résultats des recherches sont de plus en plus examinés par les universitaires, y compris dans l’étude des préjugés raciaux. Par exemple, dans son livre de 2018 Algorithms of Oppression: How Search Engines Reinforce Racism , Safiya U. Noble identifie de nombreuses façons dont ces sites reflètent et exacerbent les préjugés, comme les résultats de recherche pour les «Latinas» qui présentent principalement du porno (Noble 2018 , 75, 155) ou les hommes blancs qui viennent en cherchant des images de professions telles que «ouvrier du bâtiment», «médecin» ou «scientifique» (Noble 2018 , 82-83).

Afin d’obtenir une indication de la prévalence de ces machines racialisées sur Internet, nous avons effectué deux recherches d’images sur Google (le moteur de recherche le plus utilisé) à l’aide du navigateur anonyme Tor pour nous assurer que les résultats n’étaient pas influencés par nos historiques de recherche et nos emplacements personnels. . Nous avons d’abord cherché le terme «intelligence artificielle»: les meilleurs résultats sont sur la Fig.  3 . Certains de ces résultats sont trop abstraits, avec des cerveaux et des circuits stylisés, par exemple, pour être considérés comme racialisés. Cependant, parmi les résultats montrant des figures humanoïdes, la racialisation en tant que Blanc prédomine. Premièrement, deux images montrent des mains humaines réelles, et les deux sont blanches. Deuxièmement, deux autres images montrent des robots humanoïdes, et les deux sont blancs et pourraient donc être lus comme blancs, comme Bartneck et al. suggèrent (Bartneck et al.2018 , 202). Par conséquent, nous pourrions dire que dans la mesure où les machines sont racialisées, elles sont racialisées en tant que blanches.

Fig. 3
figure 3

Résultat de la recherche d’images Google du navigateur Tor pour «intelligence artificielle», 13 avril 2020

Afin de nous concentrer davantage sur les représentations de l’IA anthropomorphique incarnée, nous avons également recherché «robot à intelligence artificielle»: les meilleurs résultats sont sur la Fig. 4 . Comme il est clair, cette recherche produit une prépondérance encore plus grande d’images de couleur blanche ou racialisées comme blanches ou les deux.

Fig. 4
figure4

Résultat de la recherche d’images Google du navigateur Tor pour «robot à intelligence artificielle», 13 avril 2020

La blancheur de l’IA au cinéma et à la télévision

Ces images d’archives contemporaines distillent les visualisations de machines intelligentes dans la culture populaire occidentale telle qu’elle s’est développée au fil des décennies. Dans la science-fiction à partir du XIXe siècle, l’IA est principalement imaginée comme blanche. Par exemple, Terminator (Arnold Schwarzenegger), RoboCop (Peter Weller et Joel Kinnaman), tous les «réplicants» de la franchise Blade Runner (par exemple Rutger Hauer, Sean Young et Mackenzie Davis), Sonny in I, Robot (Alan Tudyk), Ava en Ex Machina (Alicia Vikander) (Fig. 5 ), et Maria in Metropolis(Brigitte Helm) sont toutes jouées par des acteurs blancs et sont visiblement blanches à l’écran. Les androïdes en métal ou en plastique ont également généralement des traits du visage blancs, tels que les robots du film de 2007 I, Robot .

Fig. 5
figure5

Alicia Vikander comme Ava dans Ex Machina . Source: Youtube

Même l’IA désincarnée est imaginée comme White: HAL-9000 en 2001: A Space Odyssey et Samantha in Her sont exprimées par des acteurs blancs. Toutes ces IA proviennent de films hollywoodiens; ils ont été produits dans un pays où 18% de la population est hispanique, mais dans lequel un seul robot fictif a cette expérience: Bender Rodríguez dans la série télévisée d’animation Futurama , qui est canoniquement construite au Mexique – mais qui est exprimé par le Le doubleur blanc John DiMaggio. Seulement des émissions de télévision très récentes avec une grande distribution d’androïdes, comme Westworld et Humans, ont tenté de résoudre ce problème avec des personnages d’IA témoignant d’un mélange de tons de peau et d’ethnies. Cette prépondérance de machines intelligentes racialisées comme White a conduit Dyer à poser «l’androïde comme une définition de la blancheur» (Dyer 1997 , 213).

Comprendre la blancheur de l’IA

Nous proposons trois interprétations de la racialisation des machines intelligentes comme blanches: la blancheur de leurs créateurs se perpétuant; la blancheur des attributs attribués à l’IA; et la mesure dans laquelle l’IA permet d’effacer les personnes de couleur de l’utopie blanche.

Blancheur reproduisant la blancheur

Dans les sociétés européennes et nord-américaines, la blancheur est normalisée dans une mesure qui la rend largement invisible. Comme le dit Toby Ganley dans son étude des études sur la blancheur, «le monopole de la blancheur sur la norme» est l’une des deux perspectives unificatrices du domaine – l’autre étant qu’il confère pouvoir et privilège (Ganley 2003 , 12). Richard Dyer décrit cela comme le point de vue selon lequel «d’autres personnes font la course, nous ne sommes que des personnes» (Dyer 1997, 1). Cette normalisation signifie que la blancheur n’est pas perçue par les populations majoritaires comme une couleur distincte, mais plutôt comme une absence de couleur – couleur à la fois au sens littéral et au sens de la race. Par conséquent, la blancheur de l’IA pourrait être considérée comme un simple défaut. Il n’apparaît pas comme une caractéristique, mais est transparent, comme l’air que nous respirons: le «marqueur non marqué», comme l’appelle Ruth Frankenberg (Frankenberg 1997b , 1). Il est peu probable que la majorité des téléspectateurs blancs considèrent les machines à ressembler à des humains comme racialisées, mais simplement comme conformes à leur idée de ce que signifie «à l’humain».

Pour les non-Blancs, en revanche, la blancheur n’est jamais invisible de cette manière, comme nous le rappelle les crochets de cloche (hooks 1992  1997 ). Le soi-disant daltonisme, une attitude de ne pas voir la race, et de présumer que les gens dans la société contemporaine ne sont plus désavantagés sur la base de la race, est en soi un récit qui perpétue l’hégémonie blanche: «les communautés de couleur voient et nomment fréquemment la blancheur clairement et de manière critique, à des périodes où les Blancs ont affirmé leur propre «daltonisme» »(Frankenberg 1997b, 4). Noble soutient que «au cœur de ces idéologies de« daltonisme »se trouve l’accent mis sur le caractère inapproprié de« voir la race »» – un point de vue qui, selon elle, est dominant parmi les technologues de la Silicon Valley, qui «se délectent de leur adhésion au daltonisme comme si c’était un atout et non une responsabilité prouvée »(Noble 2018 , 168). Un tel daltonisme est un handicap car il obscurcit la normalisation de la blancheur et la marginalisation d’autres groupes racialisés – et les effets du monde réel que cela a, tels que les technologies de reconnaissance faciale qui ne distinguent pas les visages noirs ou asiatiques (Buolamwini et Gebru 2018 ).

Compte tenu de la normalisation de la blancheur, pour certains concepteurs, fabriquer une machine ressemblant à un humain signifiera sans réfléchir de fabriquer une machine blanche. Comme le dit Dyer: «les Blancs créent les images dominantes du monde et ne voient pas tout à fait qu’ils créent ainsi les images dominantes du monde à leur propre image» (Dyer 1997, 9). Mais cela seul n’est pas une explication satisfaisante de la blancheur de l’IA, car toutes les entités – plus précisément, toutes les entités humanoïdes intelligentes – imaginées par des industries à prédominance blanche ne sont pas dépeintes comme blanches. Par exemple, la science-fiction occidentale a une longue tradition d’auteurs blancs racialisant les extraterrestres comme non-blancs. À la fin du XIXe siècle, par exemple, la peur du monde réel du «péril jaune» a été métaphoriquement abordée dans la science-fiction en racialisant les envahisseurs extraterrestres en tant qu’Asie de l’Est. La franchise Flash Gordon a gagné son principal méchant dans une bande dessinée de 1934, qui a présenté l’empereur tyrannique de la planète Mongo – l’extraterrestre orientalisé Ming l’impitoyable.

Tel est le méchant de Flash Gordon – un trident barbu, aux yeux obliques, brillant condamné [sic], aux clous pointus, aux sourcils arqués, vêtu de manière exotique, l’Oriental nommé Ming, qui personnifie le mal pur. Un lourd comme Ming n’est pas inventé dans l’imagination d’un écrivain de bande dessinée pendant une pause-café, mais est plutôt le produit de la tradition peut-être la plus riche et la plus longue de tous les stéréotypes ethniques hollywoodiens. (Barshay 1974 , 24-26)

Dyer souligne que Blade Runner utilise délibérément de la même manière des personnages d’Asie de l’Est afin de compenser la blancheur de ses protagonistes, y compris les androïdes blancs: «le fond humain jaune souligne la blancheur des principaux protagonistes. Les réplicants sont les plus blancs »(Dyer 1997 , 214). Le stéréotype racial des étrangers n’est pas un phénomène limité aux siècles passés. La trilogie préquelle de Star Wars (Lucas 1999; 2002; 2005) a été critiquée pour le «racisme transparent» dans sa représentation de l’extraterrestre Jar Jar Binks comme une caricature antillaise (Lavender 2011 , 193) rappelant le minstrelsy blackface (Williams 1999), et du marchand d’esclaves Watto, une caricature juive antisémite avec un gros nez, une calotte, un accent yiddish et une obsession pour l’argent (Freedman 2019 ).

Cette racialisation des extraterrestres en SF suggère que la racialisation de l’intelligence artificielle est un choix. Le cadre racial blanc tel que perpétué par les créateurs blancs de ces œuvres dépeint de dangereux envahisseurs d’une autre planète comme des petits criminels extraterrestres d’Asie de l’Est et des petits criminels extraterrestres maladroits comme des Afro-Caraïbes. Par conséquent, le fait qu’il présente l’IA comme une très grande majorité blanche nécessite des explications supplémentaires. Dans les sections suivantes, nous en proposons deux.

L’IA et les attributs de la blancheur

Bien que la blancheur fonctionne en partie par son invisibilité dans le discours grand public, cela ne signifie pas qu’elle n’a pas de caractéristiques distinctives. En effet, le cadre racial blanc a une longue histoire d’attribuer certains attributs aux Blancs et de les contester dans d’autres: ce sont les affirmations mêmes qui ont été utilisées pour justifier le colonialisme, la ségrégation et d’autres modes d’oppression. Nous soutenons que l’IA est principalement racialisée en tant que blanche parce qu’elle est réputée posséder des attributs que ce cadre attribue aux Blancs. Nous examinons ces attributs sous trois rubriques clés: l’intelligence, le professionnalisme et le pouvoir.

Premièrement, l’attribut principal projeté sur ces machines est, comme le suggère le terme «IA», l’intelligence. Tout au long de l’histoire de la pensée occidentale, mais en particulier depuis le XVIIe siècle en Europe et dans les territoires qu’elle a colonisés, l’intelligence a été plus associée à certains humains qu’à d’autres (Carson 2006 ). L’idée que certaines races étaient plus capables mentalement que d’autres était cruciale pour la légitimation du projet colonial en marche. Ceux jugés moins intelligents – selon les mots de Rudyard Kipling, «demi-diable et demi-enfant» – ont été jugés incompétents pour gouverner eux-mêmes et leurs terres. Il était donc légitime – même un devoir, «le fardeau de l’homme blanc» comme le disait Kipling – de détruire leurs cultures et de prendre leurs territoires (Kipling 1899). Tout au long du dix-neuvième siècle, des efforts acharnés ont été faits pour démontrer et mesurer empiriquement cette différence intellectuelle, aboutissant à l’élaboration du test de QI (Gould 1981 ). Bien que les associations explicites entre les groupes raciaux et le renseignement aient diminué après la Seconde Guerre mondiale, (a) elles continuent d’être faites dans les cercles de droite (Saini 2019 ) et (b) les associations implicites ou inconscientes entre la race et l’intelligence persistent largement (voir, pour . par exemple, van den Bergh et al 2010 , Okeke et al. 2009 ). Compte tenu du cadre à la race blanche a favorisé depuis des siècles l’association d’intelligence avec le blanc, la race européenne, il est à prévoir que , lorsque cette culture est demandé d’imaginer une intelligente machine, il imagine une machine blanche.

Un aspect crucial de l’idée d’intelligence est la généralité. L’intelligence est souvent définie comme une «capacité mentale générale» (Gottfredson 1997 ), et dans l’IA, le concept d ‘« intelligence générale artificielle » – un système doté du type de capacités mentales flexibles dont disposent les humains – est souvent considéré comme l’original et le principal but du terrain (Crevier 1993). Mais dans le cadre racial blanc, tous les humains ne sont pas considérés comme ayant cet attribut au même degré. Comme le dit Weheliye, utilisant l’idée de Sylvia Wynter de «l’homme» – le sujet masculin des Lumières, occidental, blanc, «dans le contexte de l’homme laïque, des sujets noirs, avec les populations autochtones, les colonisés, les fous, les pauvres, les handicapés, etc. servent de cas limites par lesquels l’homme peut se démarquer en tant qu’humain universel »(Weheliye 2014, 24). Selon le cadre racial blanc, c’est la pensée rationnelle et scientifique de l’Occidental blanc qui revendique une validité universelle – ou, pourrions-nous dire, une vraie généralité. D’autres races, en revanche, sont présentées comme particulières et subjectives, contraintes par les limites de leurs corps et cultures non idéales à penser des pensées partielles et paroissiales. Imaginer une machine vraiment intelligente, dotée d’une intelligence générale, c’est donc imaginer une machine blanche.

Deuxièmement, une grande partie du discours actuel autour de l’IA se concentre sur la façon dont elle est, ou sera bientôt, capable d’ un travail professionnel . On prétend souvent que c’est ce qui rend la vague actuelle d’automatisation différente des vagues précédentes, dans lesquelles les machines sont devenues capables de supplanter le travail manuel et semi-qualifié (Ford 2015 ). Le travail professionnel – droit, médecine, commerce, etc. – se situe au sommet des échelles salariales et de statut. Les Européens blancs et les Nord-Américains n’ont historiquement pas considéré que tous les humains étaient également aptes à de tels rôles et les ont gardés fermés aux personnes qui n’avaient pas les connexions, la richesse ou d’autres identificateurs de groupe requis. Les universités, portes d’accès aux professions, ont depuis longtemps exclu les personnes de couleur de leurs rangs (Burrow 2008, 107).

L’exclusion historique de quiconque autre que les hommes blancs façonne à ce jour ce que la culture blanche dominante imagine en imaginant quelqu’un remplissant de tels rôles. Safiya Noble montre qu’il a fallu des années de critiques avant que les moteurs de recherche ajustent leurs algorithmes afin que la recherche d ‘«ingénieur» ou de «médecin» cesse de renvoyer exclusivement des images d’hommes blancs (Noble 2018 ). Mais le biais sous-jacent, sur lequel se sont nourris les algorithmes, demeure. Imaginer une machine dans un travail de col blanc, c’est donc imaginer une machine blanche.

Troisièmement, les hiérarchies de l’intelligence et du statut professionnel sont bien entendu aussi des hiérarchies de pouvoir. Par conséquent, les relations de pouvoir sont implicites dans les deux catégories précédentes. Cependant, cela vaut également la peine de considérer le pouvoir séparément, car les luttes de pouvoir entre l’IA et les humains sont un trope narratif si commun. Parallèlement au récit selon lequel les robots rendront les humains redondants, un récit tout aussi bien connu est qu’ils se lèveront et nous conquériront complètement (Cave et Dihal 2019 ). Ce sont deux récits sur les machines devenant supérieures aux humains: des histoires dans lesquelles elles deviennent meilleures à chaque tâche, laissant les humains sans rien à faire, de la nouvelle de 1909 d’EM Forster “ The Machine Stops ” au film primé aux Oscars WALL-E, ou dans lequel ils déjouent et subjuguent ceux qui les ont construits, comme dans la franchise cinématographique Terminator ou le film Ex Machina (Forster 1909 ; Stanton 2008 ; Cameron 1984 ; Garland 2015 ). Lorsque les Blancs s’imaginent être dépassés par des êtres supérieurs, ces êtres ne ressemblent pas à ces races qu’ils ont présentées comme inférieures. Il est inimaginable pour un public blanc qu’ils soient surpassés par des machines qui sont noires. C’est plutôt par superlatifs d’eux-mêmes: des hommes blancs hyper-masculins comme Arnold Schwarzenegger dans le Terminator, ou des femmes blanches hyper-féminines comme Alicia Vikander dans Ava dans Ex Machina .

C’est pourquoi même les récits d’un soulèvement de l’IA qui sont clairement calqués sur des histoires de rébellions d’esclaves décrivent les IA rebelles comme blanches – par exemple, dans Blade Runner (Dihal 2020 ). L’implication de cette racialisation est que ces machines pourraient être véritablement supérieures, ou au moins sont de dignes adversaires. L’utilisation de bodybuilders blancs tels qu’Arnold Schwarzenegger pour jouer les méchants robots le suggère. Comme le souligne Dyer, le physique de Schwarzenegger suggère «le corps rendu possible par […] la supériorité mentale naturelle. Le point après tout est qu’il est construit, un produit de l’application de la pensée et de la planification, une réalisation »(Dyer 1997, 164). Par conséquent, pour un technologue ou un auteur blanc, imaginer une machine anthropomorphique supérieure, c’est imaginer une machine blanche.

En résumé, les conceptions populaires de l’IA suggèrent que ces machines ont une intelligence générale, sont capables de tâches professionnelles et / ou sont sur le point de surpasser et de supplanter l’humanité. Dans l’imagination blanche, de telles qualités sont fortement associées à la blancheur. Il n’est donc pas surprenant que dans les médias occidentaux traditionnels, de telles machines soient dépeintes comme blanches.

Utopie blanche

Si nous pensons que l’attribution à l’IA de ces qualités, si fortement associées à la blancheur, contribue grandement à donner un sens à la racialisation des machines intelligentes anthropomorphiques, nous voulons également proposer une autre hypothèse: que la blancheur des machines permet au blanc imagination utopique pour exclure complètement les personnes de couleur.

One of the most pertinent hopes for artificial intelligence is that it will lead to a life of ease (Cave and Dihal 2019). As a tool that can take over “dirty, dull, or dangerous” jobs, it relieves its owners from work they do not want to do, enabling them to pursue leisure. As critical race theorists have repeatedly pointed out, the leisure currently available to the wealthier classes is disproportionately facilitated by the labour of working-class women of colour (hooks 19921997; Rhee 2018). bell hooks shows that the people performing this labour are actively kept invisible, even when the White master and the coloured servant are physically present in the same space. She cites the memoirs of a White heiress who grew up with Black servants in her house: “Blacks, I realized, were simply invisible to most white people, except as a pair of hands offering a drink on a silver tray” (hooks 19921997, 168).

Comme le montre cette prétention forcée d’invisibilité, les interactions avec des serviteurs non blancs ne sont pas souhaitables pour le maître blanc: de telles interactions sont presque littéralement considérées comme un «sale boulot». Les représentations de personnes de couleur sales et non lavées, mangeant de la nourriture sale, vivant dans la saleté, voire même couleur d’excréments ont contribué au développement à la fois de la peur de la pollution dans les interactions avec les personnes de couleur et de l’association de la blancheur. avec propreté et pureté (Dyer 1997 , 75–76). Cette association a été exacerbée par une longue histoire de propagande précédant la conquête et le génocide qui dépeint l’autre racial comme évoquant le dégoût: comme vecteur de maladie, comme les poux ou les rats, ou comme un fléau littéral (Glover 1999 , chap.35; Rector 2014, chap. 3).

L’utopie du cadre racial blanc éliminerait donc plutôt les personnes de couleur, même sous forme de serviteurs. Depuis le début de l’étude universitaire de la science-fiction, de nombreux critiques ont souligné que les utopies tout au long de l’histoire littéraire ont été interprétées sur des prémisses d’exclusion, de colonialisme et d’eugénisme (Suvin 1979 2016, 179; Jameson 2005 , 205; Ginway 2016 , 132) . Dans Astrofuturism , De Witt Douglas Kilgore montre que les visions américaines du milieu du XXe siècle des utopies de l’ère spatiale sont des «idéalisations … basées sur une série d’exclusions» (Kilgore 2010, 10): plutôt que de dépeindre un avenir post-racial ou daltonien , les auteurs de ces utopies omettent simplement les personnes de couleur.

L’IA offre la possibilité de concrétiser de telles utopies racialisées. En vertu de sa généralité, il est imaginé comme capable de remplacer tout et n’importe quel travail indésirable – social et cognitif aussi bien que physique (Cave et Dihal 2019 ), évitant ainsi le besoin de personnes de couleur dans n’importe quel rôle. Par conséquent, comme le souligne Jennifer Rhee, les publicités pour de vraies IA telles que les robots ménagers «frappent par leur blancheur»: elles visent à montrer aux familles blanches de la classe moyenne un style de vie idéal pour les loisirs. Ce faisant, affirme-t-elle, «les images réservent le luxe de la libération du travail domestique aux femmes blanches, tout en effaçant les femmes de couleur qui effectuent ce travail, à la fois chez elles et chez d’autres» (Rhee 2018 , 94 ).

Dans certains cas, le caractère immaculé de cette utopie peut s’étendre plus loin pour exclure toutes les femmes. Tout comme les personnes de couleur peuvent être associées à une physicalité offensive, les femmes en général le peuvent également, en particulier en ce qui concerne leurs organes reproducteurs. La nécessité des rapports sexuels, de la grossesse et de la procréation pour la continuation d’une race qui se targue de la rationalité et de la capacité de transcender sa physicalité est un obstacle offensif qui a été imaginé comme transcendable par la science pendant des siècles. Comme le souligne Dyer, dans l’idéologie de la blancheur, l’élévation de la prouesse mentale par rapport à la prouesse physique a été simultanément la réalisation la plus précieuse de la race blanche et une menace pour sa propre continuation (Dyer 1997, 27). Cela a conduit au paradoxe connu sous le nom de «crise des blancs», dans lequel la race blanche est considérée comme menacée d’être submergée par des races «inférieures» qui se reproduisent de manière plus prolifique. Le transhumanisme a été envisagé comme une solution à cette crise blanche (Ali 2017 ). Considérée comme une sorte de progéniture, l’intelligence artificielle offre un moyen pour l’homme blanc de perpétuer son existence de manière rationnellement optimale, sans l’implication de ceux qu’il juge inférieurs.

Conclusion et implications

Les images de l’IA ne sont pas des représentations génériques de machines ressemblant à des humains, mais des avatars d’un rang particulier dans la hiérarchie de l’humain. Ces représentations de machines intelligentes – et notre avenir avec elles – sont réfractées à travers le cadre racial blanc; leur blancheur est un indicateur de la façon dont nous percevons leur statut et leur potentiel. Cela peut causer ce que l’on appelle parfois des préjudices de représentation (Blodgett et al.2020 ). Nous en suggérons trois.

Premièrement, cette racialisation peut amplifier les préjugés mêmes qu’elle reflète. Nous avons soutenu que les machines intelligentes sont dépeintes comme blanches parce que c’est ainsi que le courant dominant perçoit l’intelligence et les caractéristiques souhaitables associées. Mais également, la représentation cohérente des machines intelligentes en tant que Blanc lui-même transmet cette association, la soutenant ainsi. Comme nous l’avons fait valoir ailleurs (Whittlestone et al.2019 ), le biais dans les représentations de l’IA contribue à un cercle vicieux d’injustice sociale: les représentations biaisées peuvent influencer à la fois les technologues en herbe et ceux en charge de l’embauche de nouveaux employés, façonnant ceux qu’ils jugent aptes. le terrain (Cave 2020). Cela pourrait contribuer à maintenir une main-d’œuvre racialement homogène, qui continuera à produire des produits, qu’il s’agisse de véritables machines intelligentes ou de leurs représentations, qui sont biaisés pour profiter à ce groupe et désavantager les autres.

Deuxièmement, la racialisation de ces machines les place dans une hiérarchie existante de l’humain d’une manière qui pourrait exacerber une réelle injustice. Les représentations de l’IA en tant que Blancs situent ces machines dans une hiérarchie de pouvoir au-dessus des groupes actuellement marginalisés, tels que les personnes de couleur. Ces groupes opprimés sont donc relégués à une position encore plus basse dans la hiérarchie: en dessous de celle de la machine. Alors que les machines deviennent de plus en plus importantes dans la prise de décisions automatisées – souvent à propos des groupes marginalisés (Eubanks 2017 ) – cela pourrait être très important. Le biais d’automatisation – la tendance des gens à privilégier les suggestions des systèmes de prise de décision automatisés par rapport à celles des humains – a déjà été mis en évidence (Goddard et al. 2012). Nous pourrions supposer qu’elle sera exacerbée dans les cas où de tels systèmes sont racialisés Blancs et les humains en question ne le sont pas.

Troisièmement, ces représentations pourraient fausser notre perception des risques et des avantages de ces machines. Par exemple, ils pourraient encadrer le débat sur l’impact de l’IA de manière disproportionnée autour des opportunités et des risques posés aux hommes blancs de la classe moyenne (Cave 2020 ). Il est déjà courant que la vague actuelle d’automatisation diffère de celles du passé en ce que «les impacts de l’automatisation ont jusqu’à présent eu un impact principalement sur l’emploi des cols bleus; la vague d’innovation à venir menace également de renverser le travail des cols blancs »(Pew Research Center 2014 ). L’intérêt public et les politiques se concentrent donc souvent sur les cols blancs professionnels, plutôt que sur les groupes marginalisés, qui en réalité sont susceptibles d’être plus affectés par l’impact de l’IA (Eubanks 2017 ; Noble2018 ).

Dans cet article, nous avons proposé trois interprétations de la blancheur et de la blancheur des représentations de l’IA. Tous les trois, et les implications que nous supposons, nécessitent une enquête plus approfondie. Ce processus fait partie de ce que l’on peut décrire comme la décolonisation de l’IA : un processus de destruction des systèmes d’oppression qui ont surgi avec le colonialisme et qui ont conduit à des injustices actuelles que l’IA menace de perpétuer et d’exacerber. Weheliye décrit comment il «travaille à l’abolition de l’homme et prône la reconstruction et la décolonisation radicales de ce que signifie être humain» (Weheliye 2014, 4). C’est dans le domaine de l’IA que la technologie est le plus clairement liée aux notions de «ce que signifie être humain», à la fois dans la réalité et dans les fantasmes culturels. Nous espérons avoir fait un pas vers cette reconstruction, en attirant l’attention sur la blancheur de ces machines et en «la rendant étrange».

Remarques

  1. 1.

    Suite à l’utilisation de plus en plus courante de la forme capitalisée «Noir» pour désigner l’ethnicité et «noir» la couleur, nous utilisons «Blanc» pour désigner l’ethnicité et «blanc» la couleur. Bien que ce ne soit pas encore la norme, comme on peut le voir dans nos citations de critiques qui n’emploient pas cette distinction, cet usage rendra notre discussion plus claire.

  2. 2.

    https://www.internetlivestats.com/google-search-statistics/ consulté le 30 décembre 2019.

Références

  1. Adas, M. (1989). Les machines comme mesure des hommes: science, technologie et idéologies de la domination occidentale . Ithaca: Cornell University Press. https://doi.org/10.7591/9780801455261 .

  2. Addison, A., Bartneck, C., et Yogeeswaran, K. (2019). «Les robots peuvent être plus que du noir et blanc: examiner les préjugés raciaux envers les robots». Dans Actes de la conférence AAAI / ACM 2019 sur l’IA, l’éthique et la société – AIES ’19, 493–98. Honolulu, HI: ACM Press. https://doi.org/10.1145/3306618.3314272 .

  3. Ali, SM (2017) Transhumanisme et / comme blancheur. Dans les actes du Sommet IS4SI 2017 Digitalisation for a Sustainable Society . Göteborg: Institut de publication numérique multidisciplinaire. https://doi.org/10.3390/IS4SI-2017-03985 .

  4. Barshay, R. (1974). Stéréotypes ethniques dans “Flash Gordon” ‘. Journal of Popular Film, 3(1), 15–30.

  5. Bartneck, C., Yogeeswaran, K., Ser, QM, Woodward, G., Sparrow, R., Wang, S., et Eyssel, F. (2018). «Robots et racisme». In Proceedings of the 2018 ACM / IEEE International Conference on Human-Robot Interaction , 196–204. New York: ACM. https://doi.org/10.1145/3171221.3171260 .

  6. Benjamin, R. (2019). Course après technologie: outils abolitionnistes pour le nouveau code Jim. Medford, MA: Politique.

  7. Blodgett, SL, Barocas, S., Daumé III, H. et Wallach, H. (2020). «La langue (la technologie) est le pouvoir: une étude critique du« biais »dans la PNL». ArXiv: 2005.14050 [Cs], mai 2020. http://arxiv.org/abs/2005.14050 .

  8. Buolamwini, J., et Gebru, T. (2018). «Nuances de genre: disparités de précision intersectionnelles dans la classification commerciale par sexe». In Proceedings of Machine Learning Research . Vol. 81.

  9. Burrow, GN (2008). Une histoire de l’école de médecine de Yale: passer des flambeaux à d’autres . New Haven: Yale University Press.

    Google Scholar

  10. Cameron, J. (1984). Le terminateur . Orion Pictures.

  11. Carson, J. (2006). La mesure du mérite: talents, intelligence et inégalités dans les républiques françaises et américaines, 1750–1940 . Princeton, NJ: Princeton University Press.

    Google Scholar

  12. Cave, S. (2020). «Le problème de l’intelligence: son histoire riche en valeurs et l’avenir de l’IA». Dans les actes de la conférence 2020 AAAI / ACM sur l’IA, l’éthique et la société . New York: ACM Press.

  13. Cave, S., et Dihal, K. (2019). «Espoirs et peurs pour les machines intelligentes dans la fiction et la réalité». Nature Machine Intelligence, 1 (2), 74–78. https://doi.org/10.1038/s42256-019-0020-9 .

    Article Google Scholar

  14. Correll, J., Park, B., Judd, CM et Wittenbrink, B. (2002). «Le dilemme du policier: utiliser l’appartenance ethnique pour lever l’ambiguïté des individus potentiellement menaçants». Journal de la personnalité et de la psychologie sociale, 83 (6), 1314–1329. https://doi.org/10.1037/0022-3514.83.6.1314 .

    Article Google Scholar

  15. Crevier, D. (1993). AI: l’histoire tumultueuse de la recherche de l’intelligence artificielle . New York, NY: Livres de base.

  16. Daniels, J. (2013). «Race et racisme dans les études sur Internet: un examen et une critique». Nouveaux médias et société, 15 (5), 695–719. https://doi.org/10.1177/1461444812462849 .

    Article Google Scholar

  17. Daniels, J. (2015). «Ma base de données cérébrale ne voit pas la couleur de la peau»: le racisme daltonien dans l’industrie technologique et dans la théorisation du Web. American Behavioral Scientist, 59 (11), 1377–1393. https://doi.org/10.1177/0002764215578728 .

    Article Google Scholar

  18. de la Peña, C. (2010). «L’histoire de la technologie, la résistance des archives et la blancheur de la race». Technology and Culture, 51 (4), 919–937.

    Article Google Scholar

  19. Dihal, K. (2020). «Esprits asservis: intelligence artificielle, esclavage et révolte». In AI Narratives: A History of Imaginative Thinking about Intelligent Machines , édité par Stephen Cave, Kanta Dihal et Sarah Dillon, 189-212. Oxford: Presse d’université d’Oxford.

  20. Dyer, R. (1997). Blanc . Londres: Routledge.

    Google Scholar

  21. Eubanks, V. (2017). Automatiser les inégalités: comment les outils de haute technologie profilent, contrôlent et punissent les pauvres . New York: St. Martin’s Press.

    Google Scholar

  22. Feagin, JR (2006). Racisme systémique: une théorie de l’oppression . New York: Routledge.

  23. Feagin, JR (2013). Le cadre racial blanc: des siècles de cadrage racial et de contre-cadrage(2e éd.). New York: Routledge.

    Google Scholar

  24. Ford, M. (2015). La montée en puissance des robots: technologie et menace de chômage de masse . Londres: Publications Oneworld.

  25. Forster, EM 1909. «La machine s’arrête». The Oxford and Cambridge Review , novembre 1909. http://archive.ncsa.illinois.edu/prajlich/forster.html .

  26. Frankenberg, R. (éd.). (1997a). Déplacer la blancheur: essais de critique sociale et culturelle . Durham, Caroline du Nord: Duke University Press. https://doi.org/10.1215/9780822382270.

    Google Scholar

  27. Frankenberg, R. (1997b). «Introduction: blancheurs locales, blancheur localisante». In Displacing whiteness , édité par Ruth Frankenberg, 1–33. Durham, Caroline du Nord: Duke University Press. https://doi.org/10.1215/9780822382270-001 .

  28. Freedman, A. (2019). «Si vous piquez Watto, ne saigne-t-il pas? Jewish Currents (blog). 14 juin 2019. https://jewishcurrents.org/if-you-prick-watto-does-he-not-bleed/ .

  29. Ganley, T. (2003). «C’est quoi tout ce discours sur la blancheur? Dialogue, 1 (2), 12–30.

    Google Scholar

  30. Garland, A. (2015). Ex Machina . Images universelles.

  31. Garner, S. (2007). Blancheur: une introduction . Abingdon: Routledge.

    Google Scholar

  32. Ginway, moi (2016). «O Presidente Negro de Monteiro Lobato (le président noir): l’eugénisme et l’État corporatif au Brésil». Dans les planètes noires et brunes: La politique de la race dans la science-fiction , édité par Isiah Lavender III, 131–45. Jackson, MI: Presse universitaire du Mississippi.

  33. Glover, J. (1999). L’humanité: une histoire morale du XXe siècle . Londres: Jonathan Cape.

    Google Scholar

  34. Goddard, K., Roudsari, A. et Wyatt, JC (2012). «Biais d’automatisation: un examen systématique de la fréquence, des médiateurs d’effets et des atténuateurs. Journal de l’American Medical Informatics Association: JAMIA, 19 (1), 121-127. https://doi.org/10.1136/amiajnl-2011-000089 .

    Article Google Scholar

  35. Gottfredson, LS (1997). «Mainstream science on intelligence: Un éditorial avec 52 signataires, histoire et bibliographie. Intelligence 24 (1), 13–23. https://doi.org/10.1016/S0160-2896(97)90011-8 .

  36. Gould, SJ (1981). La mauvaise mesure de l’homme . New York: Norton.

    Google Scholar

  37. Haraway, DJ (1991). Simiens, cyborgs et femmes: la réinvention de la nature . Londres: Livres d’association gratuits.

    Google Scholar

  38. Harding, SG (1986). La question scientifique dans le féminisme . Ithaca: Cornell University Press.

    Google Scholar

  39. crochets, b. [1992] (1997). «Représenter la blancheur dans l’imaginaire noir». Dans Déplacer la blancheur , édité par Ruth Frankenberg, 165–79. Durham, Caroline du Nord: Duke University Press. https://doi.org/10.1215/9780822382270-006 .

  40. Jameson, F. (2005). Archéologies du futur: le désir appelé utopie et autres sciences-fictions . Londres: Verso.

    Google Scholar

  41. Keller, EF (1985). Réflexions sur le genre et la science . New Haven: Yale University Press.

    Google Scholar

  42. Kipling, R. (1899). «Le fardeau de l’homme blanc». The Times , 4 février 1899. http://www.kiplingsociety.co.uk/rg_burden1.htm .

  43. Lavande III, I. (2011). Course dans la science-fiction américaine . Bloomington: Indiana University Press.

  44. Liao, Y., et He, J. (2020). «Les effets de miroir racial sur l’homme-agent dans la conversation psychothérapeutique». Actes de la 25e conférence internationale sur les interfaces utilisateur intelligentes (IUI’20).

  45. Marino, M. (2014). «La formation raciale des chatbots». CLCWeb: Littérature et culture comparées 16 (5). https://doi.org/10.7771/1481-4374.2560 .

  46. Murphy, R. (2000). Introduction à la robotique IA . Cambridge, MA: MIT Press.

    Google Scholar

  47. Nakamura, L. (2006). «Études sur les différences culturelles, la théorie et la cyberculture». Dans Critical Cyberculture Studies , édité par David Silver et Adrienne Massanari, 29–36. NYU Press.

  48. Noble, SU (2018). Algorithmes d’oppression: comment les moteurs de recherche renforcent le racisme . New York: New York University Press.

    Google Scholar

  49. Okeke, NA, Howard, LC, Kurtz-Costes, B., et Rowley, SJ (2009). «Stéréotypes de race académique, concept de soi académique et centralité raciale chez la jeunesse afro-américaine». Journal of Black Psychology, 35 (3), 366–387. https://doi.org/10.1177/0095798409333615 .

    Article Google Scholar

  50. Centre de recherche Pew (2014). «L’IA, la robotique et l’avenir des emplois». http://www.pewinternet.org/2014/08/06/future-of-jobs/ .

  51. Recteur, JM (2014). Le spectre d’objectivation: comprendre et transcender notre diminution et déshumanisation des autres . Oxford: Presse d’université d’Oxford.

  52. Rhee, J. (2018). L’imaginaire robotique: l’humain et le prix du travail déshumanisé . Minneapolis: University of Minnesota Press.

    Google Scholar

  53. Riek, L. et Howard, D. (2014). «Un code d’éthique pour la profession d’interaction homme-robot». Dans les actes de We Robot . Rochester, NY: Réseau de recherche en sciences sociales. https://papers.ssrn.com/abstract=2757805 .

  54. Saini, A. (2019). Supérieur: Le retour de la science de la race . Londres: 4e état.

  55. Sinclair, B. (2004). «Intégrer les histoires de race et de technologie.» In Technology and the African-American Experience: Needs and Opportunities for Study , édité par Bruce Sinclair, 1-17. Cambridge, MA: MIT Press.

  56. Stanton, A. (2008). · E MUR . Disney. http://www.imdb.com/title/tt0910970/ .

  57. Strait, M., Ramos, AS, Contreras, V., et Garcia, N. (2018). «Les robots racialisés à l’image d’identités sociales marginalisées sont soumis à une plus grande déshumanisation que ceux racialisés comme blancs». In The 27th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN) , 452–57. https://doi.org/10.1109/ROMAN.2018.8525610 .

  58. Suvin, D. [1979] (2016). Métamorphoses de la science-fiction: sur la poétique et l’histoire d’un genre littéraire . Edité par Gerry Canavan. Berne: Peter Lang.

  59. Sweeney, M. (2016). «L’expérience de Mme Dewey:« technoculture, genre et race ». Sociologies numériques . https://doi.org/10.2307/j.ctt1t89cfr.31 .

  60. PNUD (2017). «Le PNUD en Asie et dans le Pacifique nomme le premier champion mondial de l’innovation non humaine». PNUD en Asie et dans le Pacifique. 22 novembre 2017. https://www.asia-pacific.undp.org/content/rbap/en/home/presscenter/pressreleases/2017/11/22/rbfsingapore.html .

  61. van den Bergh, L., Denessen, E., Hornstra, L., Voeten, M. et Holland, RW (2010). «Les préjugés implicites des enseignants: relations avec les attentes des enseignants et l’écart de réussite ethnique. American Educational Research Journal, 47 (2), 497-527. https://doi.org/10.3102/0002831209353594 .

    Article Google Scholar

  62. Villa-Nicholas, M., et Sweeney, ME (2019). «Concevoir le« bon citoyen »à travers l’identité latina dans l’assistante virtuelle de l’USCIS« Emma »». Études féministes sur les médias , 1er au 17 juillet. https://doi.org/10.1080/14680777.2019.1644657 .

  63. Weheliye, AG (2014). Habeas Viscus: assemblages racialisants, biopolitique et théories féministes noires de l’humain . Durham, Caroline du Nord: Duke University Press.

    Google Scholar

  64. Weller, C. (2017). «Rencontrez Sophia, le citoyen robot qui a dit qu’il« détruirait les humains »». Business Insider . 27 octobre 2017. https://www.businessinsider.com/meet-the-first-robot-citizen-sophia-animatronic-humanoid-2017-10?r=UK .

  65. Whittlestone, J., Nyrup, R., Alexandrova, A., Dihal, K., et Cave, S. (2019). «Implications éthiques et sociétales des algorithmes, des données et de l’intelligence artificielle: une feuille de route pour la recherche». Fondation Nuffield.

  66. Williams, PJ (1999). «Ventriloquie raciale». The Nation , 17 juin 1999. https://www.thenation.com/article/archive/racial-ventriloquism/ .

  67. Wynter, S. (2003). «Perturber la colonialité de l’être / pouvoir / vérité / liberté: envers l’humain, après l’homme, sa surreprésentation – un argument. CR: The New Centennial Review, 3 (3), 257–337.