I N T E R N E T Das globale Gehirn

Denkende Maschinen zu bauen ist ein alter Forschertraum. Jetzt glauben Experten, das Internet könnte zu einem intelligenten Superorganismus werden von Wolfgang Blum

In dem Film A.I. - Künstliche Intelligenz sind die schlauen Androiden kaum noch von den Menschen zu unterscheiden. In der Realität dagegen sind die Ergebnisse der KI-Forscher bislang kläglich. Noch übertrifft jedes Kleinkind die Roboter an Schläue. Doch in den nächsten Jahren könnte nahezu unbemerkt und unbeabsichtigt das erste intelligente Wesen von Menschenhand entstehen. Das Internet könnte zum "Globalen Gehirn" werden. Darüber spekuliert jedenfalls ein wachsender Kreis von Wissenschaftlern, der sich vor wenigen Wochen auf dem ersten internationalen Global-Brain-Workshop in Brüssel traf.

Noch ist die meiste Information im größten Wissensspeicher der menschlichen Geschichte unstrukturiert und passiv. Doch Unternehmen und Forschungsinstitute entwickeln emsig Techniken, sie zu ordnen und zu beleben. Dann sei der Schritt zur denkenden Kreatur nicht mehr weit, meint Francis Heylighen, Computerwissenschaftler an der Freien Universität Brüssel: "Ich würde es aber nicht künstliche, sondern kollektive oder symbiotische Intelligenz nennen." Statt AI passe IA besser: intelligence amplification, Intelligenzverstärkung.

Anzeige

Eines der klassischen Probleme der KI-Wissenschaftler besteht darin, ihren Kreaturen einen enormen Wust an Wissen beibringen zu müssen. Dazu gehört nicht nur Bildung, sondern vor allem so Banales wie die Tatsache, dass Nasen laufen können, aber nicht gehen. Das Globale Gehirn beseitige diese Hürde, erklärt Heylighen: "Millionen von Nutzern fügen ihm parallel ständig neue Informationen hinzu." Für Johan Bollen vom Los Alamos National Laboratory in New Mexico entsteht da etwas Einzigartiges, das sich von allem anderen grundsätzlich unterscheide, was bisher aus den Labors hervorgegangen sei: "Ein lebendes Produkt des gesammelten Einfallsreichtums der Menschheit."

Ähnlich wie das menschliche Gehirn ist das Internet hochgradig vernetzt. Die Rolle der Synapsen, der Verbindungsstellen der Nervenzellen, nehmen dabei die Hyperlinks ein, die meist farbig markierten Stellen auf einer Seite, die den Nutzer per Mausklick zu einer anderen Website bringen. Heute werden sie vom Autor der jeweiligen Seite vorgegeben. Bollen tüftelt hingegen daran, dass Verweise sich nach Bedarf bilden oder auch wieder vergehen können. Seine Software hebt solche Links stärker hervor, die oft benutzt werden, und lässt jene allmählich verschwinden, die Besucher der Seite nur selten anklicken. So entspinnt sich eine Vernetzung, die sich rein nach den Bedürfnissen der Nutzer richtet. Vorbild ist das menschliche Gehirn. Dort verstärkt sich die Verbindung zwischen zwei Nervenzellen, wenn die eine häufig direkt nach der anderen feuert. Die Suchmaschine Google nutzt bereits ein ähnliches Prinzip. Die Fundstellen, die besonders oft und von "wichtigen" Web-Seiten aus angeklickt werden, bietet sie in ihrer Liste ganz oben an.

Bollens Programm, das bereits auf einem Web-Server läuft, erzeugt überdies neue Verweise als Abkürzungen: Gehen genügend Surfer von Seite A über B nach C, bildet es einen Link direkt von A nach C. Zunächst wirkt die Software rein lokal: Sie benötigt immer nur Informationen über Dokumente, die maximal zwei Klicks voneinander entfernt sind. Doch entwickelt sich Schritt für Schritt eine globale Selbstorganisation. Zwei Homepages, die vorher nur über eine lange Kette verbunden waren, können miteinander verlinkt werden. In analoger Weise ließen sich automatisch Verweise anlegen, wenn Seiten zum Beispiel viele Wörter gemeinsam enthalten oder andere Ähnlichkeiten aufweisen. So könne es gelingen, den Informationswust des Internet zu strukturieren, ist Bollen überzeugt: "Wir können das Wissen im Internet in ein riesiges assoziatives Netzwerk bringen, das ständig von seinen Benutzern lernt."

Dieses Netz sollen dann massenweise so genannte Softwareagenten durchstöbern. Das sind Programme, die alles herausfiltern, was aus einer bestimmten Perspektive interessant sein könnte. Ein Beispiel dafür ist der ZEIT-Robot, der das Netz regelmäßig nach passenden Stellenangeboten durchkämmt. Nach welchen Kriterien Softwareagenten vorgehen, kann der Nutzer selbst festlegen, oder die Software bestimmt es anhand von dessen Aktivitäten am Computer. "Die Agenten kommen zu einer Art Schlussfolgerung", behauptet Heylighen. Sie schüfen Verbindungen, die vorher nicht existierten, das Netz begänne damit zu denken. Ein intelligentes Internet müsse überdies eigenständig sein Wissen erweitern, sagt der belgische Forscher. Dazu solle es Konzepte oder Regeln ableiten können, die vorhandene Daten zusammenfassen. Aus den Sportberichten im Internet sollte die Technik etwa schließen können, dass es beim Fußball auf Tore ankommt oder dass mit der Abseitsfalle niemand gefangen wird.

Das smart internet könne schon bald Wirklichkeit sein, kündigt Heylighen an: "Es bleibt nicht mehr viel zu tun." Daten und Programme stünden bereit oder würden gerade entwickelt - meist von privaten Firmen. Anders als in herkömmlichen KI-Projekten muss beim Globalen Gehirn niemand Künstliche Intelligenz als Ziel verfolgen. Nicht einmal Forschungsmillionen werden gebraucht. Schlagkräftige Navigationshilfen lassen sich kommerziell vermarkten. Denn wer sich im Netz zurechtfinden will, ist immer mehr auf ausgeklügelte Software angewiesen. Schon heute gibt es Suchmaschinen, die nicht stur Texte auf Schlüsselwörter durchforsten, sondern auf Fragen antworten. So bieten zum Beispiel die Firmen SER und Autonomy Software an, die in der Lage sein soll, den wesentlichen Inhalt von Texten zu verstehen und dazu passende Dokumente aus dem Internet oder anderen Quellen herauszusuchen. Das soll die mühevolle Recherche im Internet, in Firmennetzen und auf der eigenen Festplatte erheblich verkürzen. Understanding content, automatisches Verstehen von Inhalten, ist eines der heißesten Themen in der Szene.

Service