Während dieser frühen Jahre sah die Zukunft der künstlichen neuronalen Netze vielversprechend aus. Frank Rosenblatt, damals am Cornell Aeronautical Laboratory in New York, hatte im Jahr 1958 eine Version der künstlichen Neurone von McCulloch und Pitts zu einem lernfähigen Netzwerk erweitert, dem Perzeptron. Das einfachste Perzeptron-Netzwerk hat eine Handvoll Input-Neurone, die Output-Neurone aktivieren, aber nicht umgekehrt. Diese sogenannte Feed-Forward-Architektur, bei der Informationen immer nur in eine Richtung laufen, verwenden heute praktisch alle neuronalen Netze. Das Gegenteil sind rückgekoppelte Systeme, die einen großen Nachteil haben: Sie verhalten sich hochgradig nichtlinear. Ihre Aktivität kann sich zu Mustern hochschaukeln (oder verebben), die nicht vorhersehbar sind und stark von kleinsten Abweichungen in den Anfangsbedingungen abhängen.

Und noch eine weitere Grundlage neuronaler Netze schuf Rosenblatt. Die Verbindungsstärken, oder "Gewichte", mit denen Neurone andere Neurone aktivieren, passt ein Perzeptron-Netzwerk automatisch so an, dass es bei seiner Aufgabe besser wird. Dabei wird die Aktivität der Neurone in der Output-Schicht mit einem Wunschwert verglichen und die Gewichte im Netzwerk so angepasst, dass der Wunschwert wahrscheinlicher wird. Dieses sogenannte überwachte Lernen (Supervised Learning) ist das Rückgrat aller Fähigkeiten, die neuronale Netze heute besitzen.

Symbolische KI versus neuronale KI

Obwohl das Fundament für lernende neuronale Netze also schon in den ersten Jahren der KI-Forschung gelegt war, setzte sich zur gleichen Zeit zunehmend ein anderer Ansatz durch, die symbolische KI. Deren Vertreter versuchten sich daran, menschliche Intelligenz auf die Verarbeitung abstrakter Symbole zu reduzieren. Einer der Hauptverfechter, Herbert Simon aus Stanford, sagte im Jahr 1965: "Maschinen werden innerhalb von 20 Jahren alles können, was Menschen auch können."

"Die symbolische Informationsverarbeitung war das Paradigma der klassischen künstlichen Intelligenz", sagt Geoffrey Hinton. "Ihre zentrale Ausrichtung war es, komplexe Regeln auf relativ simple Inputs anzuwenden, um so zu klugen Schlüssen zu kommen."

1969 stellte sich auch Marvin Minsky auf Simons Seite. Sein Buch Perceptrons, das er mit seinem Kollegen Seymour Papert veröffentlichte, schien mit logisch-mathematischer Exaktheit zu beweisen, dass Perzeptronen-Netzwerke selbst einfache Probleme der KI nicht würden lösen können. Das Werk hatte einen derart großen Einfluss auf die KI-Gemeinde, dass das Interesse vieler KI-Forscher an neuronalen Netzen vor allem in den USA verebbte.

Zwar wurden in der Sowjetunion, in Europa und Asien während der siebziger Jahre weiter daran geforscht. Sogenannte tiefe, also mehrschichtige lernende Netze wurden sogar schon 1965 vom Ukrainer Alexey Grigoryevich Ivakhnenko beschrieben. Doch der logisch-symbolische Geist der heute oft "klassisch" genannten KI von damals zog sich bis in die achtziger Jahre und darüber hinaus durch nahezu alle Errungenschaften der KI: Algorithmen, die Sprachen verstehen sollten, wie STUDENT, semantic net und später das berühmte Chatprogramm ELIZA waren sämtlich sehr aufwendig von Menschenhand geschrieben, mussten auf große Datenbanken verfügbarer Worte zurückgreifen und konnten nur nach festen Regel antworten. In den späten achtziger Jahren fuhren die ersten autonomen Autos von Supercomputern gesteuert in Schrittgeschwindigkeit über Übungsparcours, wie etwa der Navlab 1 im Jahr 1986, Sojus-Kapseln dockten automatisch an die entstehende ISS an und 1996 gewann Deep Blue von IBM gegen Garri Kasparow im Schach. Alles ohne künstliche neuronale Netze.

Selbst lernende KI in weiter Ferne

Jedoch fehlte den Programmen der klassischen KI eine der sieben Fähigkeiten, die sich die Dartmouth-Konferenz zum Ziel gesetzt hatte: effizientes Lernen, etwa von Objektkategorien in einem Stapel Fotos oder von Worten auf einem Tonband. Statt auf lernende Systeme setzte man mit zunehmender Rechnergeschwindigkeit und zunehmendem Speicherplatz lieber auf sogenannte Expertensysteme, die auf riesige Datenbanken zurückgriffen, die oft von Hand gefüllt waren mit Assoziationen, die das Programm mit seinem Input vergleichen konnte; etwa den Laut "/da/" und den Schriftzug "da".

Doch die Resultate beim Erkennen von gesprochener Sprache blieben weit hinter den Erwartungen zurück. Die Darpa etwa, die Forschungseinrichtung des US-Verteidigungsministeriums, finanzierte zwischen 1970 und 1975 Forschern bei IBM, in Stanford und Carnegie Mellon ein Forschungsprogramm zur Spracherkennung. Doch die Fortschritte waren so mickrig, dass die Darpa sich noch während des Programms enttäuscht zurückzog. Künstliche Intelligenzen, die von selbst aus einer Menge komplexer Inputs Konzepte lernen und verknüpfen, wie es sich die Väter der KI in Dartmouth vorgestellt hatten, schienen in weite Ferne gerückt.