DIE ZEIT: Frau Hofstetter, angesichts der digitalen Revolution: Wie sieht Ihr optimistischstes und wie Ihr pessimistischstes Szenario für unser Leben in 20 Jahren aus?

Yvonne Hofstetter: Wenn sich alles zum Schlechten entwickelt, dann werden intelligente Maschinen unsere Zukunft so sehr vorherbestimmen, dass der Mensch seine Entscheidungsfähigkeit verliert.

ZEIT: Und wie sieht die Welt im besten Falle aus?

Hofstetter: Intelligente Maschinen werden uns bei der Arbeit unterstützen. Wir können viele Entscheidungen endlich auf informierterer Grundlage treffen. Trotzdem muss gelten, dass wir gegenüber den Maschinen das letzte Wort behalten. Wir müssen sie abschalten können. Das ist oft gar nicht vorgesehen, denn die Optimierung unseres Alltags, die uns intelligente Maschinen versprechen, setzt die ununterbrochene Überwachung unseres Lebens voraus.

ZEIT: In Ihrem Buch Sie wissen alles zeigen Sie auf, dass nicht die Unmengen an Daten, die kursieren, ein Risiko für unsere Selbstbestimmung darstellen, sondern intelligente Algorithmen, die von sich aus lernfähig sind und uns umfassend zu bestimmen drohen, sei es über die digitalisierte Haustechnik oder vernetzte Autos. Das klingt apokalyptisch.

Hofstetter: Seit Beginn meiner IT-Laufbahn beschäftige ich mich nur mit Big Data und Künstlicher Intelligenz. Es gibt drei verschiedene Arten Künstlicher Intelligenz. Bei der ersten handelt es sich um Expertensysteme. Es gibt sie schon recht lange. Sie sind gut darin, aus Daten Wissen abzuleiten. Mit solchen Systemen können Sie zum Beispiel in der Elektronik von Autos einen Fehler finden, ohne dass der Programmierer diesen Fehler explizit in das Analyseprogramm aufgenommen hat. Das System erkennt ihn trotzdem. Eine zweite Art Künstlicher Intelligenz ist die Schwarmintelligenz: Eine Population autonomer Softwareprogramme kooperiert miteinander, um ein Problem zu lösen. Aber vor allem die dritte Art verlangt unsere Aufmerksamkeit: die Optimierer. Das sind selbst lernende Systeme, sie verbessern sich fortwährend autonom, ohne dass der Mensch eingreift.

ZEIT: Können Sie Beispiele nennen?

Hofstetter: Denken Sie an das Internet der Dinge in Form moderner Haustechnik und die intelligente Heizung, an der Google und auch ein deutscher Energiekonzern arbeiten. Sensoren messen die Temperatur und die Luftfeuchtigkeit Ihrer Räume. So erkennen und lernen sie, wann Sie zu Hause sind und wann nicht. Durch die Vernetzung mit Ihrem Smartphone stellen sie fest, wann Sie sich gerade auf den Weg nach Hause machen, und heizen die Wohnung vor. Bei allem Komfort: Derartige Systeme sind ein Angriff auf die Autonomie des Menschen. Sie funktionieren nur auf der Basis unterbrechungsfreier Totalüberwachung. Der intelligente Hightech-Herd der Firma AGA trägt deshalb auch den prophetischen Namen "Total Control".

ZEIT: Wann ist eine Maschine intelligent?

Hofstetter: Ein System gilt als intelligent, wenn es ein Verhalten zeigt, das vom Programmierer ursprünglich nicht so vorgesehen wurde. Es trifft Entscheidungen, die man nicht in all ihren Abzweigungen und Konsequenzen durchdacht und festgelegt hat. Ich bin der Meinung, dass Systeme, die lernfähig sind und einen Plan, eine Strategie entwickeln können, als intelligent gelten müssen.

ZEIT: Wenn Sie Künstliche-Intelligenz-Maschinen mit Lebewesen vergleichen, wie intelligent sind diese Systeme heute? Sind sie auf der Stufe eines Wurms, eines Fisches oder eines Säugetiers?

Hofstetter: Ich vergleiche unsere eigenen intelligenten Maschinen gern mit einem Haustier.

ZEIT: Das klingt nicht bedrohlich.

Hofstetter: Wenn Sie das Intelligenzniveau eines Haustieres in eine Waffe einbauen, kann das gravierende Folgen haben.