Trevor Paglen ist Fotokünstler, unter anderem. Er macht Bilder, um sie anderen Menschen zu zeigen – so wie es Hunderte Millionen Smartphone- und Kamerabesitzer auch tun, wenn auch meist mit weniger professionellem Anspruch. Aber mittlerweile sind er und alle anderen Menschen in der Unterzahl, sagt Paglen. Die Mehrheit der heute erstellten Fotos würde von Maschinen für Maschinen gemacht, was aber wiederum enorme Auswirkungen auf die Gesellschaft habe.

"Bilder haben begonnen, in unseren Alltag einzugreifen. Ihre Funktion verändert sich, von Darstellung und Vermittlung zu Aktivierung, Operation und Durchsetzung", schrieb Paglen im vergangenen Dezember auf The New Inquiry. Kurz: von passiv zu aktiv. Paglen hat es sich zur Aufgabe gemacht, diesem Wandel und seinen Folgen nachzuspüren. Auf der re:publica in Berlin wird er an diesem Mittwoch darüber sprechen.

Unsichtbares sichtbar zu machen, ist seit Langem Paglens Leitmotiv. Ein geheimes Foltergefängnis der CIA in Afghanistan hat er gemeinsam mit anderen aufgedeckt, Spionagesatelliten im Weltraum oder auch Militäranlagen, die auf keiner kommerziell erhältlichen Landkarte verzeichnet sind. Im vergangenen Jahr fotografierte er auf Tauchgängen jene transatlantischen Glasfaserkabel, an denen Geheimdienste ganze Datenströme kopieren, um sie zu analysieren. "Dinge neigen dazu, Licht zu reflektieren", sagte er mal, also seien sie prinzipiell sichtbar.

"Verlernen, wie Menschen zu sehen"

Digitale Bilder aber sind anders. Zunächst sind es einmal maschinenlesbare Dateien und reflektieren als solche eben kein Licht. Sichtbar sind sie erst und nur für den Moment, in dem eine Software und ein Display sie anzeigen. Eine Maschine braucht diese Software und dieses Display hingegen nicht, um mit dem Bild, der Datei arbeiten zu können.

Autokennzeichen-Scanner und Gesichtserkennungssysteme nennt Paglen als Beispiel. Die Scanner lesen Nummernschilder und füllen Datenbanken, völlig automatisiert. Menschen kommen erst ins Spiel, wenn zum Beispiel die Polizei eine Datenbank durchsucht. Gesichtserkennung wird unter anderem eingesetzt, um Stimmungen, Alter oder Geschlecht von Menschen zu registrieren und entsprechend zugeschnittene Werbung anzuzeigen. Auch dafür braucht es keine menschliche Hilfe.

Trevor Paglen © Ingo Wagner / dpa

Selbst die Millionen von Fotos, die täglich auf Plattformen wie Facebook hochgeladen werden, füttern zunächst eine Maschine, bevor sie ein Mensch zu sehen bekommt. Sie dienen als Trainingsmaterial: Facebooks tiefe neuronale Netze zerlegen jedes Bild in dreidimensionale Abstraktionen, in Muster also, um daraus zu lernen, Lebewesen und Objekte zu erkennen und zu klassifizieren. (Die Geschichte und Funktionsweise solcher Netzwerke erklären wir hier ausführlich.) Sie "sehen" dabei ganz anders als Menschen, vor allem aber sehen sie alle hochgeladenen Bilder. Und sie fällen anhand dieses Trainings Entscheidungen, die Konsequenzen im Alltag haben können, von automatisierten Kreditvergaben über medizinische Diagnosen bis zum Predictive Policing, also von Algorithmen unterstützte vorausschauende Polizeiarbeit.

"Wenn wir die unsichtbare Welt der visuellen Kultur von Maschinen verstehen wollen, müssen wir verlernen, wie Menschen zu sehen", schrieb Paglen im Dezember. Stattdessen müssten wir lernen, wie künstliche Intelligenzen zu sehen. Genau das hat er zuletzt in Stanford versucht, als Artist in Residence an der Eliteuniversität. Sight Machine hieß sein erstes Projekt dort, ein Konzert des berühmten Kronos Quartet, das Paglen (größtenteils) in Echtzeit von verschiedenen quelloffenen KI-Algorithmen analysieren ließ. Was die in den Gesichtern der Musiker und des Publikums erkannten, wurde auf Leinwänden gezeigt.

Maschinelles Sehen ist ein Machtinstrument

Kunstprojekt "Sight Machine" © Trevor Paglen / Altman Siegel Gallery

Die Visualisierung war aber kein Selbstzweck. Die Undurchsichtigkeit "sehender" Maschinen macht es schwierig, dahinterliegende– zum Beispiel in einseitig gewählten Trainingsdaten verborgene – Ideologien und Vorurteile zu erkennen. Paglen glaubt, dass die maschinelle visuelle Kultur deshalb ein Machtinstrument ist – und eine Geldmaschine. "Immer kleinere Bruchstücke des menschlichen Lebens werden kapitalisiert", schreibt er. "Deine Krankenversicherung wird moduliert durch die Babybilder, die deine Eltern ins Netz stellen. Die Art, wie die Polizei dich behandelt, wird geleitet von der Signatur deine Lebensmusters." Das ist es, was er sichtbar machen will.

Einen technischen Ausweg gebe es nicht, sagt Paglen. Versuche, künstliche Intelligenzen mit optischen Tricks und Hacks zu täuschen, seien höchstens kurzfristig erfolgreich. Längst aber würden sie ins Training der Netzwerke integriert und damit früher oder später wirkungslos. Stattdessen müssten Menschen sich Räume schaffen, in denen sie sich der automatisierten politischen und wirtschaftlichen Ausbeutung gänzlich entziehen – "safe houses in der unsichtbaren digitalen Sphäre" nennt er sie.