Thomas Beschorner ist Professor für Wirtschaftsethik und Direktor des Instituts für Wirtschaftsethik an der Universität St. Gallen. Martin Kolmar ist Professor für Volkswirtschaftslehre in St. Gallen.

Daten von rund 50 Millionen Facebook-Usern wurden ohne deren Einwilligung abgezogen und von der Firma Cambridge Analytica zur Beeinflussung des US-Wahlkampfes für gutes Geld eingesetzt. Facebook gesteht zwar Fehler ein, sieht sich aber selbst als Opfer und schiebt den Schwarzen Peter Cambridge Analytica zu, die das Vertrauen des Konzerns missbraucht hätte. Der Datenskandal wurde in den vergangenen Tagen so als einmaliger Fehltritt dargestellt, der sich nicht wiederholen wird.

Aber ist es wirklich so simpel? Nein, das Ganze ist mehr als ein einfaches Schwarzer-Peter-Spiel. Unternehmen, wie sie Facebook und Cambridge Analytica im neuen Plattformkapitalismus repräsentieren, stellen eine zivilgesellschaftliche und wirtschaftspolitische Herausforderung dar, die viel zu lange ignoriert wurde. Sie greifen tief in die Lebenswelten von uns Menschen ein, können gesellschaftliche Perspektiven prägen und womöglich sogar politische Entscheidungen beeinflussen. Deshalb können diese Konzerne schlechterdings nicht nur eng ökonomisch betrachtet werden.

Unternehmen wie Facebook sind ökonomisch motiviert, zugleich aber ein Paradebeispiel für quasi-politische Institutionen, weil sie das Gesellschaftliche und das Politische bedeutend formen, indem sie unseren Zugang zur Wirklichkeit steuern. Und gerade diese Kombination macht sie gefährlich.

Firmen wie Facebook oder Google sind in der Regel auf sogenannten mehrseitigen Märkten tätig. Charakteristisch ist dabei, dass Angebote auf einem Markt zu Angeboten auf anderen Märkten führen und sie so miteinander verweben. Ganz konkret: Wir können Facebook kostenfrei nutzen, wir bezahlen mit unseren persönlichen Daten und nicht in Euro. Und genau diese Daten machen die Plattformen für Werbetreibende und andere so interessant. Geld wird nicht direkt mit den Kunden, sondern auf dem Werbemarkt und dem Markt für Datenanalyse verdient. Die Gewinne werden hier von wenigen Unternehmen abgeschöpft, was zu monopolistischen Tendenzen führt.

Hinzu kommt, dass Plattformen ab einer gewissen Größe sogenannte Netzwerkeffekte nutzen können. Erst durch ein Netzwerk – beispielsweise die Freunde auf Facebook entstehen die gewünschten Interaktionen. Je größer dieses ist, desto attraktiver wird es für den einzelnen Nutzer. Neben den hohen Fixkosten für die Entwicklung und den Betrieb solcher Plattformen führen Netzwerkeffekte ebenfalls zu einer Konzentration solcher Angebote auf wenige Unternehmen.

Und es gibt einen weiteren Grund für eine Monopolbildung: Einige Betreiber setzen sogenannte Habit-Forming-Technologies ein, deren Ziel es ist, dass ihre Nutzer möglichst viel Zeit auf ihren Plattformen verbringen. Hierbei werden bestimmte psychologische Mechanismen genutzt und gezielt angesprochen, die denen bei Suchtverhalten ähnlich sind und sehr einfach funktionieren: Jedes Like bei Facebook und jeder Retweet auf Twitter bringen eine kleine emotionale Belohnung und die nie enden wollende Auswahl an Neuem verstärkt diesen Effekt. So werden, ähnlich wie beim Tabakkonsum, Abhängigkeiten erzeugt.

Wer entscheidet über die Algorithmen?

Wie kann man nun dieser Monopolisierung wirksam entgegentreten? Wie können diese Märkte effizienter gestaltet werden? Die Reformvorschläge sind meist sehr ähnlich: Die Monopole müssten zerschlagen und die Geschäftspraktiken stärker regulieren werden – beispielsweise durch eine Anpassung der EU-Datenschutzverordnung. Die Vorschläge greifen jedoch zu kurz und lösen das eigentliche Problem nicht. Aus drei Gründen:

Erstens, Facebook und Google sind keine Technologieunternehmen, sondern im Kern Medienunternehmen, auch wenn sie selbst keine Informationen generieren, sondern diese "nur" vermitteln. Informationen sind keine gewöhnlichen Güter wie Äpfel oder Birnen, über deren Verwendung allein eine Marktlogik entscheiden sollte. Vielmehr entstehen aus Informationen Weltbilder und Meinungen. Google und Facebook sind zunehmend zu den wichtigsten Fenstern in die Welt geworden. Sie kartografieren, wie wir die Dinge sehen und welche Dinge wir nicht sehen.

In diesem Zusammenhang ist, zweitens, besonders das sogenannte Microtargeting für die Geschäftsmodelle dieser Unternehmen relevant. Dabei werden die Nutzer zu möglichst homogenen Gruppen gebündelt, um sie gezielt mit Werbebotschaften anzusprechen oder ihnen individuelle Angebote zu unterbreiten – ökonomischer wie politischer Art. Relevant ist hier prinzipiell alles, was man im Internet tut: aufgerufene und nichtaufgerufene Seiten, Verweildauer und Kontakte, Inhalt gesendeter oder nichtgesendeter Botschaften, die Stimme und das Aussehen.

Diese "Echokammern" gewährleisten das zielgenaue Erreichen der Werbebotschaften. Und welche Leistungen verkauft werden, ist dabei völlig nebensächlich. Kleidung, Autos, Rassismus; aus Sicht der Plattformbetreiber handelt es sich dabei lediglich um unterschiedliche Produkttypen, die an den Mann oder die Frau gebracht werden müssen. Im Moment verlassen wir uns darauf, dass sich alle Beteiligten in diesem Prozess anständig verhalten.

Drittens, und abermals damit zusammenhängend, werden die Nutzerdaten auf Basis komplexer Algorithmen und psychologischer Erkenntnisse zu Informationen und Modellen verdichtet. Auf dieser Basis will man Verhalten gezielt beeinflussen. Und es geht dabei nicht nur darum, welche Angebote man zu welchen Preisen erhält, sondern auch darum, welche Angebote man nicht erhält. Ein Großteil der Diskriminierung durch Microtargeting bleibt in diesem Sinne für die Nutzer unsichtbar: Man erhält beispielsweise kein Jobangebot, weil eine Fotoanalyse ergeben hat, dass man eine wenig durchsetzungskräftige Persönlichkeit hat, oder man bekommt eine Mietwohnung nicht, weil der Algorithmus zu dem Schluss kommt, dass man unzuverlässig ist. Natürlich können Analysen von Big Data durchaus einen positiven Beitrag leisten und dabei helfen, Fehler zu verhindern und unnötiges Leid zu vermeiden, etwa im Bereich der Medizin. Die wichtige Frage ist jedoch, wer über die Struktur der Algorithmen informiert ist und wer darüber entscheiden kann.

Es ist im Marketing völlig unbestritten, dass solche Verfahren im Prinzip funktionieren; daher kann man nicht ausschließen, dass sie auch im Bereich der politischen Entscheidungsfindung wirken. Sollte sich die Vermutung bewahrheiten, dass sich durch eine Kombination von Big Data, psychologischen Verfahren und Microtargeting tatsächlich auch politische Einstellungen systematisch beeinflussen lassen, so wäre dies natürlich ein wichtiges Warnsignal für unsere demokratischen Gesellschaften. Und solange wir keine eindeutige Antwort auf diese Frage haben, sollten wir äußerst behutsam sein, ja uns in diesem zentralen Punkt der Neuausrichtung von wirtschaftlichen Interessen und politischem Willen von einem Vorsichtsprinzip leiten lassen.

Regulierung: konsequent anders

In Momenten, in denen deutlich wird, dass erwerbswirtschaftliche Unternehmen ein Spiel spielen, dass für die Gesellschaft schädlich ist, wird regelmäßig der Ruf nach stärkeren Regulierungen laut. Politik und Recht werden dann als Garanten dafür gesehen, unternehmerisches Handeln wieder in den Dienst der Gesellschaft zu stellen. Das Problem an dieser üblichen Logik ist jedoch, dass die politischen und rechtlichen Maßnahmen reaktiv sind und ihre Umsetzungen zudem in der Regel viel Zeit brauchen. Gerade im schnellen Internetgeschäft hinken Regulierungen damit stets hinter neuen technologischen Entwicklungen hinterher.

Die Umkehrung der Beweislast

Mit Blick auf dieses Hase-und-Igel-Spiel und in Anbetracht von gravierenden negativen gesellschaftlichen Konsequenzen, die durch bestimmte Typen von Internetplattformen resultieren können, drängt sich ein ebenso einfacher wie radikal erscheinender Vorschlag auf: ein Zulassungsverfahren, bei dem die Unternehmen den Nachweis zu erbringen haben, dass ihre Technologien gesellschaftlich nützlich und unbedenklich sind.

Es handelt sich damit, wenn man so will, um eine Umkehrung der Beweislast: Der Ball läge durch ein Zulassungsverfahren nicht bei Politik und Gesellschaft, um bedenkliche Internetrisikotechnologien zu erkennen und zu verfolgen, sondern umgekehrt bei den Unternehmen. Und diese hätten einen doppelten Nachweis zu erbringen: Was ist der gesellschaftliche Mehrwert, der aus der entsprechenden Datenanalyse und -verwendung zu erwarten ist (Nützlichkeit)? Was sind mögliche Risiken und Schäden, und wie können diese minimiert werden (Unbedenklichkeit)?

Facebook bekäme nur eine Zulassung für eine bestimmte Datentechnologie, wenn die Firma nachweisen könnte, dass beispielsweise keine Habit-Forming-Technologies zum Einsatz kommen, die Informationsauswahl nicht zu Radikalisierung und problematischer Emotionalisierung beitragen oder wenn politische und andere bedenkliche Einflussnahme durch Microtargeting ausgeschlossen sind. Zugleich wäre der Zweck und der gesellschaftliche Mehrwert von Datenanalysen zu erläutern. Anderenfalls bliebe die Internetseite einfach leer.

Ein solches Zulassungsverfahren wäre in die Hände einer unabhängigen Agentur zu legen, damit dem Staat nicht zu große Einflussmöglichkeiten gegeben werden. Wichtig ist auch anzumerken, dass es bei dem Vorschlag nicht um eine Aushebelung der Meinungsfreiheit geht, da er sich auf die Algorithmen bezieht, mit denen Informationen vermittelt werden.

Fragen Sie Ihren Arzt oder Apotheker

Könnte derartiges Zulassungsverfahren funktionieren? Und ist dies nicht eine Form von staatlichem Dirigismus, der Fortschritt verhindert?

Es kann funktionieren, und eine solche Agentur müsste auch nicht zu einem Innovationskiller werden. Das zeigen seit Langem etablierte Beispiele aus anderen Industrien. Pharmaunternehmen müssen beispielsweise vor der Vermarktung neuer Arzneimittel eine Zulassung bekommen, in deren Zuge sie den Nachweis der Wirksamkeit und der Unschädlichkeit ihrer Wirkstoffe erbringen müssen. Die prinzipielle Richtigkeit eines solchen Verfahrens wird dabei kaum infrage gestellt.

Die Analogie zu Arzneimitteln ist dabei nur eines von vielen möglichen Beispielen. Unsere Gesellschaft sieht für alle Risikotechnologien Zulassungsverfahren vor, die vor Markteinführungen verpflichtend zu durchlaufen sind. Die aktuellen Vorfälle rund um die Firma Facebook verdeutlichen eines mit sehr großer Klarheit: Der Einsatz von Datentechnologien auf Internetplattformen ist ein gesellschaftlicher Risikobereich.