Unter Donald Trumps 12,4 Millionen Followern auf Twitter sind 4,6 Millionen (39 Prozent) gar keine Menschen, sondern sogenannte Bots, kleine Programme, die automatisch Beiträge verfassen. Es gibt sogar Latino-Bots, die vorspiegeln, für die Trump alles andere als wohlgesonnene Latino-Minderheit zu sprechen, in Wirklichkeit aber Roboter sind. Diese Meinungsroboter sorgten dafür, dass nach dem ersten TV-Duell der Hashtag "TrumpWon" populär wurde und der journalistischen Berichterstattung widersprach. Auch die AfD kündigte an, im Bundestagswahlkampf 2017 Softwareroboter zur Korrektur der öffentlichen Meinung einzusetzen.

Aber darf man Meinungsroboter überhaupt zu Debatten zulassen? Können Maschinen sprechen? Und wenn ja – haben sie ein Recht auf freie Meinungsäußerung? Das klingt nach einer philosophischen Frage, doch sie hat höchst praktische Bedeutung. Algorithmen spielen bei der politischen Willensbildung eine immer größere Rolle. Nicht nur indem sie immer mehr standardisierte Informationen in das Nachrichtensystem einspeisen. Sondern indem sie auch regulieren, welche Informationen wir überhaupt sehen und zur Grundlage unserer politischen Entscheidung machen. Wenn Computer an der Willensbildung teilnehmen, wäre es da nicht konsequent, ihnen auch Rederechte einzuräumen?

Google sieht seine Suchmaschinenergebnisse vom Schutz der Meinungsfreiheit gedeckt. Facebook vertritt dieselbe Rechtsauffassung in Bezug auf seinen Nachrichtenalgorithmus. Apple argumentierte im Streit mit dem FBI um die Entschlüsselung des iPhones, dass seine Codes unter die Redefreiheit der Verfassung fallen. Die Frage nach der Rechtsfähigkeit von Computern erhielt eine neue Dringlichkeit durch Microsofts Chatbot Tay. Der Bot sollte mit einfachen Antwortalgorithmen den Anschein einer Konversation mit Menschen erwecken. Kaum war Tay im Netz von der Leine gelassen worden, pöbelte er, was die Leitung hergab. Ein paar Witzbolde hatten sich einen Spaß daraus gemacht, der künstlichen Intelligenz falsche Fakten beizubringen. Das so Gelernte verrührte Tay zu einem kruden Brei diffamatorischer Aussagen. Aber wem war das zuzurechnen? Den Programmierern? Den Leuten, die Tay mit falschen Daten fütterten? Oder dem Chatbot, weil er sich selbstständig gemacht hatte? Was wäre, hätte Apples Sprachassistent eine Wahlempfehlung für Hillary Clinton abgegeben? Künstliche Intelligenz stellt den Begriff der "Rede" im Sinne der verfassungsmäßig garantierten Freiheit vor ein Problem.

Dieser Artikel stammt aus der ZEIT Nr. 46 vom 3.11.2016.

Die Rechtswissenschaftlerinnen Toni M. Massaro und Helen Norton haben dazu ein interessantes Gedankenexperiment angestellt: "Stellen Sie sich einen Fall namens Robots United vor, bei dem ein Roboter mit starker künstlicher Intelligenz eine Verfassungsklage wegen einer Beschränkung seiner freien Meinungsäußerung und Identität des Sprechers anstrengt. Judy Jetson – eine ehemalige US-Generalstaatsanwältin, die nun private Kläger vertritt – ist der Anwalt des Roboters und argumentiert, dass auch dieser das Recht auf freie Meinungsäußerung habe. Niemand im Gerichtssaal lacht, obwohl einige skeptisch sind." Wie sollen die Richter entscheiden? Darf man undurchsichtige Systeme wie Algorithmen überhaupt zu Debatten zulassen? Muss man Maschinen als Akteure in einem politischen System anerkennen? Der erste, genuin menschliche Reflex: Computer können keine Meinung haben, ihre Aktionen sind mithin nicht von der Meinungsfreiheit gedeckt.

Meinungen umfassen nach Artikel 5 des Grundgesetzes nicht nur Werturteile, also Meinungen im engeren Sinne, sondern auch Tatsachenbehauptungen, sofern sie die "Voraussetzung für die Bildung von Meinungen sind" (so die Lesart des Bundesverfassungsgerichts). Träger des Grundrechts ist nach herrschender Rechtsauffassung aber nur eine Person, keine Maschine. Das Problem ist, dass man im Internet nicht weiß, ob ein Bot spricht. Ein Bot gibt vor, ein menschlicher Meinender zu sein – und täuscht die Menschen. Das ist an sich kein schützenswertes Verhalten.

Doch der Schutzbereich der amerikanischen Verfassung ist deutlich weiter gefasst und bezieht sich weniger auf den Sprecher als vielmehr auf speech, also die Rede an sich. Nach einer Definition von Alexander Meiklejohn umfasst freedom of speech "alles, was es wert ist, gesagt zu werden". Das ist ein Kriterium, das man unterschiedlich auslegen kann, aber auf die Natur des Sprechers kommt es nicht an. Der Roboter kann genauso gut etwas Wertiges zu einer Debatte beitragen wie ein Mensch. Dies vorausgesetzt, argumentieren auch Massaro und Norton für einen Schutz künstlicher Intelligenzen: "Man stelle sich eine Orwellsche Regierung vor, die die Worte von künstlichen Intelligenzen beschränkt, die nicht in den Tenor der Regierung einstimmen." Folglich müsse Redefreiheit auch für KI-Systeme gelten.

Der Rechtswissenschaftler Tim Wu hat sich allerdings früh gegen Grundrechte für Computer ausgesprochen. Das Recht auf freie Meinungsäußerung wäre ein Feigenblatt für Google und Co, die sich damit gegen Wettbewerbsklagen schützen und Maschinen über Menschen stellen könnten . Er plädiert für eine Beschränkung des Grundrechts auf intelligible expressive Verhaltensweisen – also auf etwas nicht Programmierbares. Doch dieses Abgrenzungskriterium wird immer unschärfer, je intelligenter die Systeme werden.