2015 konnte man Tristan Harris noch als Esoteriker abstempeln. Ein junger Softwareentwickler aus San Francisco, der gerade seinen Job bei Google aufgegeben hatte, plötzlich Digital-Detox-Kurse besuchte und davor warnte, dass die sozialen Netzwerke "die Gedanken von zwei Milliarden Menschen". übernehmen könnten. Drei Jahre später wird Harris so etwas wie "das gute Gewissen des Silicon Valley" genannt, und auf dem Technikfestival South by Southwest (SXSW) im texanischen Austin wollten Hunderte Menschen hören, was es damit auf sich hat. Doch Harris sagte seinen Vortrag am Freitag zum Auftakt des Festivals kurzfristig ab.

Auch wenn Harris nicht in Austin ist, seine Bedenken sind es. Mehrere Vorträge beschäftigen sich mit den mutmaßlichen Schattenseiten von Technologie und vor allem sozialer Netzwerke. Es geht um die Frage, wie die Menschen wieder die Kontrolle über ihr digitales Leben zurückerlangen können. Die Rufe nach einer neuen, verantwortungsvolleren Designethik werden lauter. Und nimmt man das SXSW als Pulsmesser der Technikbranche, könnte die Debatte eine der wichtigsten des Jahres im Silicon Valley und darüber hinaus werden.

Schon in den vergangenen Monaten häufte sich die Kritik an Plattformen wie Facebook, Instagram und YouTube. Der ehemalige Facebook-Präsident Sean Parker sagte, das Netzwerk sei konzipiert, "Schwächen in der menschlichen Psyche auszunutzen". Der frühere Facebook-Manager Chamath Palihapitiya warnte vor den "kurzen, dopamingetriebenen Feedbackschleifen", die unser soziales Miteinander veränderten. Der Autor Franklin Foer schreibt in seinem aktuellen Buch von einer "Welt ohne Verstand", und Tristan Harris glaubt, dass die Entwickler von vornehmlich drei Firmen – Facebook, Google und Apple – über die Aufmerksamkeit von Milliarden Menschen verfügen.

Die Suche nach den dunklen Mustern

"Die Plattformen sprechen einen Teil des menschlichen Gehirns an, der auch Reptiliengehirn genannt wird und für Emotionen, Suchtverhalten und Triebe verantwortlich ist", sagte die Interface-Designerin Elayne Safir in einem Panel auf dem SXSW. Sie ist Teil einer Gruppe von Designern und Entwicklerinnen, die sich Choice Architects nennt und die Probleme von sozialen Netzwerken, aber auch von Apps und Websites untersucht.

Eines dieser Probleme sind laut Safir sogenannte dark patterns, also dunkle Muster. Dabei handelt es sich um Designentscheidungen, die einzig dazu dienen, die Nutzer unbewusst zu einer Aktion zu bewegen (und damit letztlich Umsatz zu machen). Das bekannteste Beispiel sind etwa Likes, die es in praktisch jedem sozialen Netzwerk gibt. Sie dienen zwar einerseits dazu, gute Beiträge zu belohnen. Vor allem aber bringen sie Nutzer dazu, das Angebot regelmäßig zu prüfen, weil jedes neue Like einen kleinen Endorphinschub mit sich bringt. Wer etwa ein neues Bild auf Instagram hochlädt, öffnet die App möglicherweise öfter, um herauszufinden, wie vielen Freunden das gefallen hat, als er das sonst getan hätte, um sich einfach nur neue Bilder anzusehen.

Solche dark patterns finden sich überall. Soziale Netzwerke locken mit Likes oder Belohnungssystemen wie Snapchats Streaks. YouTube und Netflix spielen nach einem Clip gleich den nächsten ab, um die Zuschauer im Angebot zu halten. Airlines verknüpfen Flugtickets mit dem Verkauf von Versicherungen und Medien, darunter auch ZEIT ONLINE, setzen vermehrt Pushnachrichten ein: Denn wenn das Handy vibriert, wird reflexmäßig nachgeguckt und im besten Fall geklickt.

"Je mehr Daten wir über das Onlineverhalten erhalten, desto besser wissen wir über all die irrationalen Entscheidungen der Nutzer und Nutzerinnen Bescheid", sagt Lauren Bugeja, Interface-Designerin von Google. Die Erkenntnisse könnten zwar dazu genutzt werden, die Produkte zu verbessern. In vielen Fällen aber dienen sie dazu, die Menschen zu etwas zu bringen, was sie vielleicht gar nicht wollen – das Reptilienhirn lässt grüßen.

"Technologie bestimmt, was zwei Milliarden Menschen jeden Tag denken"

Auch Tristan Harris, dessen Ansichten man zwar nicht auf dem SXSW in Austin, wohl aber in einem Ted-Talk und langen Porträts erfährt, kennt diese Techniken. Er hat sie schließlich mitentwickelt: Als Mitarbeiter am Stanford Persuasive Tech Lab hat er erforscht, wie sich Menschen durch Designentscheidungen manipulieren lassen. Eine gewisse Smartphone-Abhängigkeit ist seiner Meinung nach ein eingebautes Feature: Kleine, rote Benachrichtigungen ziehen die Nutzer in die Apps. Dort angekommen, erliegen sie der Illusion, nach eigenem Willen zu handeln. In Wirklichkeit aber werden ihre Entscheidungen immer stärker durch Algorithmen bestimmt, durch Vorgaben und Vorschläge, die ihnen Arbeit abnehmen sollen, in erster Linie aber dazu dienen, immer weiter zu scrollen und zu swipen.

"Unser Bewusstsein wird dadurch gekidnappt", sagt Harris und vergleicht die Technikindustrie in Interviews schon mal mit der Tabaklobby – und zwar bevor bekannt wurde, dass Rauchen Krebs verursacht. Zumal ähnlich viele Menschen davon betroffen seien: In Anlehnung an die aktuellen Nutzerzahlen von Facebook sagte Harris im Gespräch mit dem Magazin Wired: "Technologie bestimmt, was zwei Milliarden Menschen jeden Tag denken und glauben." Die Folgen, sowohl körperlich (etwa den Einfluss auf die Aufmerksamkeitsspanne) als auch gesellschaftlich (etwa den Einfluss auf Beziehungen), begännen wir erst jetzt langsam zu verstehen.

Ähnlich sehen das auch die Choice Architects in Austin: "Neue Technologien bringen Konsequenzen mit sich, die wir noch gar nicht abschätzen können", sagt die Designern Elayne Safir in ihrem Vortrag. Wie sich etwa sprachgesteuerte Assistenten auf die sprachliche Entwicklung und das Kommunikationsverhalten von Kleinkindern auswirken, sei noch völlig unerforscht.

Ein Gütesiegel für ethisch korrekte Software

Worin sich Tristan Harris und die Vortragenden auf dem SXSW einig sind: Um das Problem anzugehen, sei ein radikales Umdenken notwendig. Und zwar nicht bei den Nutzern, die sich durchaus auch bewusst gegen bestimmte Verhaltensmuster entscheiden könnten, sondern bei den Plattformbetreibern, den Interface-Designern und Softwareentwicklern.

Die Choice Architects, aber auch die Designerin und Autorin Melis Senova, die auf dem SXSW über die "Schattenseiten des menschlichen Designs" sprach, fordern deshalb in erster Linie einen intrinsischen Ansatz auf Basis des sogenannten ethical design: Wer Dienste, Apps und Websites anbietet, müsse wieder mehr darüber nachdenken, welche Folgen das haben könnte. Was logisch klingt, sei gerade in Zeiten von Algorithmen und allgegenwärtigen sozialen Netzwerken in Vergessenheit geraten. "Aber am Ende sind wir es, die Produkte auf den Markt bringen", sagte Lauren Bugeja von Google. Hilfreich könne sein, mehr mit Experten aus anderen Bereichen wie der Psychologie heranzuziehen.

Auch Harris und das von ihm mitgegründete Center For Humane Technology fordern ein Umdenken gerade bei den großen Plattformen und ihren Entwicklern. Er erhofft sich eine Bewegung, die aus der Technikbranche heraus entspringt: Statt den Menschen mehr Zeit mithilfe manipulativer Techniken zu nehmen, sollen sich Entwickler dazu verpflichten, den Menschen zu helfen, die Zeit "besser" zu verbringen.

Gleichzeitig aber erhofft er sich auch politischen und regulatorischen Druck. In der Vergangenheit erwähnte Harris etwa eine Art Gütesiegel für Dienste, die bestimmte Designentscheidungen beachten und den Nutzerinnen mehr Kontrolle und Entscheidungskraft geben: So könnte es schon helfen, wenn ein Dienst die Option bietet, das prominente Anzeigen von Likes zu unterbinden und damit im besten Fall das Bedürfnis, ständig wieder nachzusehen. Harris weiß aber auch, dass dies genau ein Teil vieler Geschäftsmodelle ist, die erst einmal über Bord geworfen werden müssten.

Die Suche nach der gut verbrachten Zeit

Ob das realistisch ist, das können weder Harris noch die Vortragenden auf dem SXSW sagen. Und vielleicht ist es dafür auch noch zu früh. Auf dem diesjährigen Festival zeigt sich allerdings: Die Kritik an den sozialen Netzwerken und dem Silicon Valley als Ganzes, die im vergangenen Jahr lauter wurde, kommt längst nicht mehr nur von außen, von Technikfeinden oder mahnenden Politikern. Die Debatte wird auch innerhalb der Branche immer mehr geführt.

Das beste Beispiel ist wohl Mark Zuckerberg. Der hatte zu Beginn des Jahres in einem Beitrag angekündigt, Facebook reparieren zu wollen. Dabei verwendete er zum wiederholten Male den Ausdruck von "time well spent", also gut verbrachte Zeit. Den gleichen Ausdruck, den Tristan Harris und sein Mitstreiter Joe Edelman vor einigen Jahren für ihre Bewegung prägten. Noch meinen Zuckerberg und Harris damit etwas anderes: Für Zuckerberg ist es gut verbrachte Zeit, wenn man auf Facebook mit Freunden kommuniziert. Harris sieht gut verbrachte Zeit gerade dann, wenn man sie nicht auf Facebook verbringt. Vielleicht treffen sich beide ja in der Mitte.