Quand je me regarde dans le miroir, je ne vois pas le visage d'un homme ou d'une femme, ce que je vois c'est juste moi, mon visage. Beaucoup de gens me voient probablement comme un homme quand je suis dans la rue, mais je suis non-binaire et mon visage n'est pas associé à un genre binaire. Le genre est une construction incarnée que je peux établir pour moi-même. Tout le monde a tendance à porter des jugements sur le genre des autres en fonction de leur présentation, des stéréotypes, du contexte social, de leur origine culturelle, etc. Les visages en général ne sont pas genrés a priori, nous ne les genrons que parce que nous connaissons ou supposons connaître le sexe des humains auxquels ils appartiennent.

Un concept très simple si l'on sait ce qu'est le genre. Et pourtant, il est aussi souvent difficile à saisir, dans une culture essentiellement cis-normative : le comprendre, être suffisamment informé, avoir rencontré suffisamment d'expériences et de personnes pour le comprendre, demande un certain travail.

Il est facile de trouver des failles dans les nombreuses façons dont le genre est codé dans les systèmes informatiques, et la science des données [ne fonctionne souvent pas bien avec la queerness] (https://reallifemag.com/counting-the-countless/). Mais il y a un niveau supplémentaire d'inquiétude pour moi quand je tombe sur des algorithmes qui prétendent le déduire, le deviner, le prédire automatiquement sur la base de traits biométriques. La reconnaissance automatique du genre est le nom du domaine qui s'occupe de ce genre de tâches. Et il est défectueux dès le départ (https://logicmag.io/nature/the-body-instrumental/). Comme le dit le chercheur Os Keyes (https://doi.org/10.1145/3274357), elle repose sur le malentendu selon lequel le sexe est quelque chose d'immuable qui peut être déduit entièrement des caractéristiques physiologiques. Un malentendu dont personne mieux qu'une personne transgenre ne peut ressentir les effets.

J'ai passé des années à travailler avec la technologie et à voir toutes sortes de choses [non calculables] (https://doi.org/10.1162/artl_a_00336) devenir des résultats d'un algorithme d'apprentissage automatique. Le genre est celui qui me touche le plus, car il m'a fallu tant d'années pour me libérer de la catégorisation rigide des genres que la culture européenne m'avait enseigné·e. Lorsqu'un algorithme tente de m'en imposer un, je le ressens comme une violence. Et je suis blanc·he et je vis dans un pays riche, je ne fais même pas partie des personnes les plus touchées par ce genre de technologies.

La propension à prétendre que les ordinateurs peuvent répondre à des questions qui n'auraient jamais dû être posées à des machines en premier lieu est un modèle auquel nous nous habituons lorsqu'il s'agit d'algorithmes et de technologies sous l'étiquette "intelligence artificielle" (lire apprentissage automatique). Comme l'écrit Kate Crawford dans "Atlas of AI" :

"Quelle violence épistémologique est nécessaire pour rendre le monde lisible à un système d'apprentissage automatique ? L'IA cherche à systématiser ce qui n'est pas systématisable, à formaliser le social et à convertir un univers infiniment complexe et changeant en un ordre linnéen de tableaux lisibles par la machine. De nombreuses réalisations de l'IA ont dépendu de la réduction des choses à un ensemble laconique de formalismes basés sur des procurations : identifier et nommer certaines caractéristiques tout en ignorant ou en occultant d'innombrables autres. Pour reprendre une expression de la philosophe Babette Babich, l'apprentissage automatique exploite ce qu'il sait pour prédire ce qu'il ne sait pas : un jeu d'approximations répétées. Les ensembles de données sont également des substituts de ce qu'ils prétendent mesurer. En d'autres termes, il s'agit de transformer la différence en similitude calculable."

Les personnes marginalisées tombent souvent dans les failles des systèmes algorithmiques qui reproduisent la [violence] (https://doi.org/10.1177/1461444820958725) du contexte politique dans lequel iels sont brassé·es, et [les personnes transgenres appartiennent à cette catégorie] (https://reallifemag.com/counting-the-countless/). Le pas de la prédiction à la prescription est court. Et la "diversité" et l'"inclusion" ne sont pas des solutions magiques qui peuvent réparer les dommages causés par des questions mal définies.

Certaines technologies, comme la reconnaissance automatique du genre (RAG), n'auraient jamais dû exister et sont maintenant [on demande leur abolition] (https://www.theverge.com/2021/4/14/22381370/automatic-gender-recognition-sexual-orientation-facial-ai-analysis-ban-campaign). J'aime bien cette approche pour échapper à la [matrice de domination] (https://jods.mitpress.mit.edu/pub/costanza-chock/release/4), telle que définie par le professeur Sasha Costanza-Chock, que la technologie peut perpétuer : le [refus] (https://pure.solent.ac.uk/en/publications/put-it-in-the-bin-mapping-ai-as-a-framework-of-refusal), la capacité de repousser et de dire simplement non, nous ne voulons pas de cette chose. Et le refus va au-delà de choses absurdes comme l'AGR, il s'applique à tout type de technologie ayant un impact sur les systèmes socio-techniques.

Autant la visibilité est importante pour les personnes trans non binaires dans différentes circonstances, autant c'est une épée à double tranchant, je ne veux pas être inclus dans les systèmes algorithmiques d'oppression, je ne veux pas être intelligible pour des machines qui sont vouées à reproduire des modèles de préjudice et de traumatisme.

Les inspirations dans cette direction sont nombreuses, du [Feminist Data Manifest-No] (https://www.manifestno.com/), à la [Refusal Conference] (https://afog.berkeley.edu/programs/the-refusal-conference) qui a eu lieu en 2020, au festival d'un an [Transmediale for Refusal 2021] (https://staging.transmediale.intergestalt.cloud/theme).

Mon texte préféré sur la stratégie, les périls et le travail du refus (en tant que cadre contre l'oppression, bien au-delà de la technologie) est [No] (https://feministkilljoys.com/2017/06/30/no/) de Sara Ahmed.

En ce qui concerne l'IA et le genre en particulier, que peut signifier le refus dans la pratique, au-delà de l'abolition pure et simple des éléments de la technologie lorsque cela n'est pas possible ? Le livre [Design Justice] (https://design-justice.pubpub.org/) de Sasha Costanza-Chock est un excellent point de départ. Il s'agit d'une "exploration de la manière dont le design peut être dirigé par des communautés marginalisées, démanteler l'inégalité structurelle et faire progresser la libération collective et la survie écologique".

J'apprécie également les projets qui tentent de résister à la technologie abusive par des pratiques de contre-surveillance, comme l'usurpation d'identité et les techniques contradictoires. L'atelier [Dragging AI] (https://www.ajl.org/drag-vs-ai) en est un exemple. C'est un beau mélange d'art et d'excellence trans, qui rappelle la [Facial Weaponization Suite] (https://zachblas.info/works/facial-weaponization-suite/) de Zach Blas. Il n'est pas surprenant que l'art soit souvent un domaine où l'exploration de la technologie de l'IA d'un point de vue critique/incarné peut aboutir à des résultats très intéressants.

L'un de mes artistes préférés actuellement est Everest Pipkin, et je recommande vivement leur [On Lacework : watching an entire machine-learning dataset] (https://unthinking.photography/articles/on-lacework) et Shellsong, où ils utilisent la technologie de la fausse voix profonde pour explorer ["ce que vaut une voix, qui peut posséder un son humain, et ce que l'on ressent lorsqu'on se retrouve face à face avec un fantôme de son corps qui peut encore nous survivre"] (https://culture.theodi.org/shellsong/).




Charlie
(they/them)

Charlie est titulaire d’un doctorat en physique et a travaillé comme chercheur·euse, scientifique des données, spécialiste du nettoyage des données et programmeur·euse scientifique, mais a passé jusqu’ici la plupart du temps en ligne à serrer les dents. À deux doigts de devenir un véritable luddite numérique, Charlie s’est accroché·e à la vue du nombre croissant de personnes géniales travaillant à des études critiques de la technologie et des algorithmes, impliquées dans des projets cool et des approches de la technologie d’intérêt public et de justice en matière de conception.

are.na/de