L’artiste Trevor Paglen, l’état de surveillance et votre vie
Après avoir dévoilé les rouages de l’intelligence artificielle, le gagnant de la bourse MacArthur s’attaque à l’espace
- Entrevue: Charlie Robin Jones
- Photographie: Christoph Mack

Trevor Paglen change de studio. Pendant des années, il a gardé ses pénates dans un appartement du quartier berlinois de Mitte autrefois occupé par Laura Poitras, la cinéaste documentariste qui était également une des trois journalistes contactés par Edward Snowden pour faciliter la publication de documents volés à la National Security Agency américaine en 2013. Un drôle de hasard pour cet artiste dont la majorité des œuvres interroge la relation entre technologie, pouvoir et esthétique.
Paglen a entamé sa carrière d’artiste en exposant les formes physiques du complexe militaro-industriel : il a collectionné des écussons portés par l’escadron secret des Black Ops, photographié l’architecture des bases et systèmes de surveillance nationaux américains et produit des impressions de drones en plein vol sur fond de nuages tourmentés que ne bouderaient pas Turner. Récemment, toutefois, Paglen s’est mis à voir des choses qu’aucun humain n’est censé voir : les jeux de données titanesques des images fabriquées par les machines, pour les machines. Dans « A Study of Invisible Images » (« Études des images invisibles »), une récente exposition à la galerie new-yorkaise Metro Pictures, il a présenté une série d’œuvres qui dévoilent, de différentes façons, la manière dont l’intelligence artificielle voit et interprète le monde qui l’entoure, et ce que cela pourrait impliquer pour nous.
Lorsque j’ai rencontré Paglen en début février, il ne restait que quelques pièces maîtresses dans son atelier. Au centre d’une table se trouvait l’Autonomy Cube, une sculpture faite de microprocesseurs sous une cage de verre qui facilite l’accès à l’internet par le biais du réseau crypté Tor. Près de la fenêtre, une feuille métallique était accrochée à une corde à linge. « C’est du mylar d’aluminium, un matériau très similaire à celui qui a été utilisé pour fabriquer le satellite Orbital Reflector. Ce n’est pas une œuvre d’art, c’est un truc que je garde ici, » m’a-t-il expliqué en riant.
Le Orbital Reflector illustre bien un autre fil conducteur des œuvres de Paglen : le désir de s’imaginer des avenirs différents. Cet été, un diamant réfléchissant de 30 mètres de long sera envoyé dans l’espace — dans une fusée du programme Space X d’Elon Musk — où il rejoindra les autres satellites et divers détritus en orbite autour de la Terre. C’est un cas rarissime dans l’espace : un objet purement esthétique, sans aucun but militaire ou commercial. « C’est un projet fonctionnel, mais imaginatif, » affirme Paglen. Jusqu’à ce qu’il soit détruit par le rayonnement solaire ou des particules — Paglen estime que son satellite survivra entre 6 et 8 semaines —, il sera un nouveau repère de navigation, une tête d’épingle lumineuse dans le ciel étoilé.
Malgré son approche décidément anti-établissement, Paglen a commencé à recevoir une forte attention du public. À la fin de 2017, il a reçu la prestigieuse bourse MacArthur (aussi surnommée « la subvention des génies »), il a été invité au Forum économique mondial de 2018 à Davos, et fera l’objet en juillet d’une rétrospective d’envergure au Musée Smithsonian, à seulement 20 minutes à pied du Capitole américain, à Washington DC.
Malgré sa voix précise et réfléchie, Paglen a une tendance tout à fait désarmante à passer du sérieux extrême à la rigolade en un quart de seconde. Il a un rythme comique auquel on ne s’attend pas en regardant ses œuvres, et un sens de l’absurde un peu caustique que vous avez probablement déjà deviné.

Charlie Robin Jones
Trevor Paglen
Beaucoup de vos œuvres illustrent des objets extrêmement importants, mais rarement vus, que ce soit les photos d’infrastructures qui existent réellement, mais qui sont rarement visitées ou le projet d’« images invisibles », ces visuels qui n’ont pas été créés pour l’œil humain.
Ce que je désigne par « images invisibles », ce sont les images créées par des machines à l’intention d’autres machines, dans le cadre de n’importe quelle activité, qu’elle soit accomplie par une voiture sans conducteur, un drone autonome ou encore une intelligence artificielle qui vérifie si vous préférez le Coca-Cola ou le Pepsi sur Facebook. J’ai réalisé des projets qui consistaient à observer des satellites-espions et des câbles internet au fond de l’océan, mais avec les « images invisibles », je cherche à voir ce qui se passe à l’intérieur de ce satellite, à l’intérieur de ce câble au fond de l’océan. Je m’intéresse à ce qui a lieu à l’intérieur du serveur de données au bureau et à l’intérieur du drone autonome aussi. L’entièreté de ces processus est invisible pour l’humain. Malgré tout, il s’agit d’une opération faite à partir d’une image, n’est-ce pas ? Donc, les outils que j’ai créés ici ont servi à traduire ce monde autonome ou la vision de ces ordinateurs en objets qui peuvent être reçus par l’humain.
Un système de vision informatisé prend des images numériques et en extrait certaines informations, que ce soit pour trouver les limites de la route ou pour tenter d’identifier un visage avec la reconnaissance faciale. Il accomplit ce travail numériquement — il photographie votre image, la convertit en une série de nombres qui représente, par exemple, certaines valeurs de couleurs, et tente de créer une sorte d’empreinte digitale de votre visage. Vous pouvez l’utiliser pour jauger l’identité de quelqu’un. Vous pouvez tenter de décrypter les émotions d’une personne, si elle sourit ou non, ou alors si elle est surprise ou choquée. Il y a une fonction qui cherche à reconnaître le genre, qui évalue le visage d’une personne et qui dit : « Dans cette image, cette personne est de sexe féminin à 85,11 %, et dans celle-ci, à 66,44 %. » Et c’est là que l’on commence à voir les biais sous-jacents qui ont été intégrés à ces algorithmes. Quelqu’un quelque part a statué qu’il existe quelque chose de féminin à 100 %, et qui a choisi ce à quoi cela ressemble. Mais qu’est-ce que c’est, ce 100 % ? Est-ce que c’est Barbie ? Est-ce que c’est Grace Jones ? Qui a pris la décision ?
Je viens tout juste d’écrire le mot «eugénisme» pour poser la prochaine question…
Je dirais que c’est plutôt de la phrénologie, mais oui.
Ça me rappelle l’étude menée à Stanford qui suggérait que l’intelligence artificielle dans la reconnaissance faciale arrivait à dire si quelqu’un est gai ou hétéro. Cette notion selon laquelle on peut prédire quelque chose d’aussi complexe que la sexualité humaine à l’aide d’un algorithme me donne des relents du 19e siècle.
Il y a beaucoup de ces idées qui circulent en sciences de l’informatique et en IA en ce moment. C’est vraiment un gros problème, parce que, bien honnêtement, ces philosophies, ces biais, et ces préjugés racistes sont intégrés à l’infrastructure. C’est un enjeu très pressant, en fait.


Quel est le rôle des images dans cet enjeu ?
Quand vous évaluez et classifiez les gens selon leur apparence, ou quand un algorithme d’intelligence artificielle observe une place publique et applique sa reconnaissance faciale aux gens qui s’y trouvent pour trouver les produits qui pourraient les intéresser, ce sont tous des phénomènes visuels. Nous n’avons pas une tradition très poussée dans notre culture visuelle pour réfléchir aux possibilités de militarisation ou d’opérationnalisation des images. Si vous utilisez l’approche de l’histoire de l’art pour répondre à la question, vous n’obtiendrez qu’une compréhension très limitée de ce qui se passe. C’est en faisant une analyse du pouvoir, du capital et de la race que vous trouvez les outils vous permettant d’avoir une conversation qui, en fin de compte, est la plus utile.
À ce sujet, dans votre œuvre Even The Dead Are Not Safe, vous avez choisi d’utiliser les visages de Simone Weil et de Frantz Fanon. Pourquoi avoir sélectionné ces penseurs en particulier ?
Pour ces œuvres, j’ai utilisé un logiciel de reconnaissance faciale pour évaluer les visages de révolutionnaires et de philosophes défunts. Je me suis demandé si le développement de ces technologies pouvait empêcher des gens comme Simone Weil et Frantz Fanon d’exister dans l’avenir. Nous nous dirigeons rapidement vers une société où les libertés de chacun sont sans cesse modulées par nos métadonnées et nos signatures numériques. Dans cette société, il devient de plus en plus facile d’utiliser ces outils pour renforcer les instruments du pouvoir, que l’on parle du capital dans les marchés boursiers ou des politiques, du respect des lois et de la surveillance. Vous comprenez ? On pourrait, dès demain matin, commencer à bâtir des villes qui appliquent automatiquement la reconnaissance faciale à tous ses citoyens et qui envoient une amende à tous les piétons qui ont traversé au feu rouge. Dès. Demain. Matin. Le point que je veux amener, c’est que des personnes comme Fanon ou Weil ont contribué au progrès social précisément parce qu’ils ont enfreint la loi — parce que ces lois étaient injustes. Comment est-ce possible, dans une société dominée par des outils qui s’affairent de plus en plus à centraliser les systèmes politiques et de respect des lois ?
Pour moi, en dessous de tout ça se cachent des questions fondamentales extrêmement préoccupantes : à qui revient la tâche de définir la signification des choses ? À qui revient la tâche de décider ce qui est masculin ou féminin ? À qui revient la tâche de définir comment une interprétation doit avoir lieu ? Les luttes politiques sur la signification sont des luttes pour les droits et l’autoreprésentation. L’autoreprésentation est en soi une performance. C’est une forme de construction d’image, dans un sens.

“Beckett” (Even the Dead Are Not Safe) Eigenface, Trevor Paglen, 2017

Vampire (Corpus - Monsters of Capitalism) Adversarially Evolved Hallucination, Trevor Pgalen, 2017
Qu’avez-vous pensé de l’application Google Arts & Culture, qui associe des visages à des portraits historiques ?
Ça m’a terrifié de voir qu’autant de gens donnaient sans gêne leur information biométrique à Google. Le tout en échange d’une publication Instagram ! C’est le genre de coups marketing très faciles à faire avec cette technologie, mais je réfléchis surtout à leurs considérations sous-jacentes : des millions et des millions de personnes ont ajouté leur visage à des bases de données pour la reconnaissance faciale en échange d’un prix, qui est de se faire dire à quelle peinture elles ressemblent ! [rires]
Que pensez-vous du désir de résister par le biais de la technologie ?
Il est possible de créer des outils et des technologies de brouillage ou de dissimulation, que ce soit en cryptant les messages texte ou en maquillant le visage de motifs conçus pour déjouer les logiciels de reconnaissance faciale. La question à se poser, c’est : est-ce que ces outils créent réellement des lieux où les libertés sont renouvelées de différentes façons ? À quel point ces solutions technos résolvent-elles les enjeux éthiques posés par les technologies elles-mêmes ? Est-il possible de concevoir des intelligences artificielles dépourvues de biais ? L’idée de se dissimuler… C’est une idée que j’approuve — j’ai moi-même créé certains de ces outils —, mais je ne crois pas que ça constitue une stratégie. Ce sont de petites techniques à utiliser. Selon moi, ces trucs montrent ce à quoi nous aspirons. C’est très important de se demander dans quelle société nous voulons vivre. Voulons-nous des lieux où nous ne sommes pas sujets à la surveillance, que ce soit celle de Facebook ou celle de la police ? Ou voulons-nous le contraire ? Les technologies nous permettent de créer ces espaces, elles nous aident à imaginer ou à structurer le type de monde dans lequel nous voulons vivre, mais je ne crois pas qu’elles puissent résoudre grand-chose par elles-mêmes. [rires] Je crois que ces questions devront éventuellement être réglées à l’échelle sociétale par les institutions citoyennes, et non par les plateformes technologiques ou corporatives.
« On pourrait, dès demain matin, commencer à bâtir des villes qui appliquent automatiquement la reconnaissance faciale à tous ses citoyens et qui envoient une amende à tous les piétons qui ont traversé au feu rouge. »

Derrière nous se trouve un prototype du matériau utilisé par l’Orbital Reflector. Pouvez-vous m’en dire plus sur ce projet ?
Un des thèmes qui est sorti de notre conversation est l’idée qu’il faut non seulement s’interroger de façon critique sur la manière dont nous voyons le monde et les environnements, paysages et histoires qui en font partie, mais aussi sur la manière de créer un aperçu de ce que nous voulons pour l’avenir. Quels futurs pouvons-nous concevoir qui ne soient pas des sociétés dystopiques de surveillance, où le climat est désastreux et où l’intelligence artificielle sert à gérer les crises politiques et économiques ? Parce que c’est ce qui nous attend ! Certains de mes projets servent donc à attiser cette réflexion. Le projet du satellite réfléchissant fait de même, dans le sens où il imagine une relation avec l’espace qui ne se cantonne pas au colonialisme et à la menace d’une guerre nucléaire, deux phénomènes qui ont marqué son histoire jusqu’à présent.
Comment s’est déroulé le processus de lancement du satellite ?
J’ai multiplié les conférences téléphoniques ! [rires] Et les feuilles de calcul. Ce n’est pas facile de construire un engin spatial qui est fiable et qui fera ce que vous voulez qu’il fasse. Pour y arriver, il faut raffiner ses idées autant que possible et faire des tests, des tests et encore des tests. Le lancement, cela étant dit, est assez simple : il faut simplement investir un tas d’argent.
Que pensez-vous de votre collaboration avec le programme SpaceX ?
Oh, on ne cesse de me dire : « SpaceX et Elon Musk exposent votre art. » Et moi je dis : « Non, absolument pas… » [rires] J’ai envoyé un chèque à l’entreprise et ils font ce pour quoi ils ont été payés.
Je réalise que l’Orbital Reflector est à la fois une façon de mettre en lumière le fait que l’espace est rempli de détritus qui survivront aux pyramides, mais aussi de désenclaver l’espace, pour permettre quelque chose de potentiellement… difficile à concevoir.
Le projet tente de faire de l’espace exactement le contraire de ce qu’il a été auparavant. [rires] Une très grande partie du projet a consisté à s’assurer de ne pas l’étiqueter, justement. Nous avons soigneusement vérifié d’où venait notre financement, et nous avons soigneusement choisi les mots utilisés pour en parler. Nous avons véritablement tenté de créer un projet qui n’est pas une publicité ni une démonstration des technologies militaires. Nous voulions, littéralement, créer un objet aussi purement esthétique que possible. Et il en retourne que c’est extrêmement difficile à faire.

Vous avez passé votre carrière à documenter la relation entre le pouvoir et les images. Votre approche a-t-elle changé depuis l’élection de Trump à la présidence ?
Pour moi, je dirais que nous vivons une sorte de moment techno-surréaliste un peu lugubre. Je crois que cela a affecté l’apparence de certains objets que je crée. Je mène actuellement un projet dans le cadre duquel nous entraînons une intelligence artificielle. Pour entraîner une IA à reconnaître ce qui se trouve dans une cuisine, par exemple, on doit faire une liste de tout ce qui s’y trouve — des citrons, des limes, des fourchettes et des couteaux, des assiettes, etc. —, puis on fournit à l’IA des milliers d’images de ces objets pour qu’elle apprenne à les identifier. De notre côté, nous avons entraîné des réseaux neuronaux à voir des objets irrationnels. Nous en avons bâti une, intitulée « The Interpretation of Dreams » (« L’interprétation des rêves »), qui ne voit que des objets associés à la psychanalyse freudienne. Si vous mettez cette IA dans votre cuisine, donc, elle ne verra pas les couteaux et les assiettes et les fourchettes, mais des visages bouffis, des injections et des gorges scabieuses. Nous en avons une autre, nommée « Monsters of Capital » (« Le bestiaire du capital »), qui ne voit que des monstres qui ont historiquement servi d’allégories du capitalisme. Vous pouvez donc voir des trucs comme un zombie haïtien dont l’âme a été dérobée dans les plantations de cannes à sucre, ou un vampire en habits d’aristocrate en train de sucer du sang. Je ne crois pas que j’aurais utilisé cette imagerie il y a quelques années, dans le sens où elles expriment un message manifeste.
Vous revenez tout juste de Davos. Comment c’était ?
C’était absurde. [rires] C’est essentiellement le rassemblement de milliers de gens de partout sur la planète qui se connaissent tous. C’était flagrant. Mais j’ai rencontré une foule de très bonnes personnes, et j’ai participé à des panels avec, vous savez, le chef de la Commission des droits de la personne des Nations Unies, et c’était agréable de contribuer à ce débat. J’ai quand même eu l’impression que j’étais le seul à dire ouvertement que je ne croyais pas qu’il existe des solutions commerciales aux problèmes sociaux. Je crois que la phrase que l’on m’a répétée le plus souvent à Davos était : « Trevor, nous sommes très heureux de vous avoir parmi nous. Nous adorons entendre des opinions divergentes. »
- Entrevue: Charlie Robin Jones
- Photographie: Christoph Mack
- Images gracieusement fournies par: Metro Pictures, the Nevada Museum of Art, and Trevor Paglen