Als Google im Sommer ein Projekt namens Deep Dream vorstellte, gingen die veränderten und häufig an einen LSD-Trip erinnernden Bilder um die Welt. Für viele Internetnutzer war es der erste richtige Kontakt mit einer Technik aus einem Teilbereich der künstlichen Intelligenz, die als maschinelles Lernen oder Deep Learning bekannt ist. Dabei kommt sie noch an ganz anderen Orten zum Einsatz, zum Beispiel in persönlichen Assistenten wie Siri auf dem iPhone oder dem Fotodienst Google Photos: Hier lernt das Programm anhand der Fotos der Nutzer, Motive wiederzuerkennen. 

Das Einsatzgebiet selbstlernender Algorithmen ist groß. Sie können in einzelnen Smartphone-Apps vorkommen oder riesige Datensätze aus der Finanzbranche analysieren. Um ihre Entwicklung voranzutreiben, stellen Unternehmen wie IBM, Google und Facebook seit diesem Jahr Teile ihrer Forschung unter einer Open-Source-Lizenz zur Verfügung. Im Vergleich zu proprietärer, also geschlossener und geschützter Soft- und Hardware, bietet quelloffene Technik allen interessierten Menschen die Möglichkeit, sie zu verwenden, zu erweitern und im Idealfall zu verbessern.

Server-Hardware von Facebook

Big Sur, benannt nach dem pittoresken Küstenstreifen in Kalifornien, nennt Facebook die am Freitag vorgestellte Hardware, die gezielt für maschinelles Lernen eingesetzt werden soll. Zum Beispiel für die Bilderkennung: Die entsprechende Software analysiert eine Vielzahl an Fotos auf bestimmte Elemente wiederkehrender Muster und lernt daraus, Motive immer besser selbstständig zu erkennen.

Da dieser Prozess sehr rechenintensiv ist, bietet Big Sur Steckplätze für bis zu acht Grafikkarten. Dennoch ist das Gehäuse vergleichsweise kompakt, benötigt kein komplexes Lüftungssystem und ist zudem so konzipiert, dass es möglichst leicht zu warten ist. Komponenten wie Festplatten oder Arbeitsspeicher sollen ähnlich leicht auszutauschen sein wie bei einem normalen PC.

Facebook möchte mit Big Sur den Entwicklern von KI-Software ein vorgefertigtes und gleichzeitig erschwingliches System liefern. Gleichzeitig sollen sie darauf aufbauen, das Design verbessern und ihre Erkenntnisse und Vorschläge wieder mit anderen Nutzern – und nicht zuletzt mit Facebook – teilen. Deshalb plant das Unternehmen, die Details von Big Sur kommendes Jahr im Rahmen des Open Compute Projects unter einer Open-Source-Lizenz zu veröffentlichen. Wie Facebook sagt, sei Big Sur doppelt so schnell wie das vorherige System, mit dem sie ihre neuronalen Netzwerke trainierten.

Mit Big Sur führt Facebook einen Trend fort, den es bereits im Januar begann. Damals stellte das Unternehmen eine Reihe von Modulen für das Software-Framework Torch vor. Torch ist eine Open-Source-Lösung für maschinelles Lernen, die von der Community mit zusätzlichen Algorithmen und Anwendungen erweitert wird. Der von Facebook ergänzte Deep-Learning-Algorithmus soll nach Angaben Facebooks deutlich schneller und leistungsfähiger sein als alle anderen quelloffenen Lösungen zuvor und Entwicklern damit neue und komplexere Anwendungsmöglichkeiten liefern. Zwar gibt es mit Torch, Caffe oder Theano bereits diverse quelloffene Deep-Learning-Plattformen, ihre aktive Community aber ist überschaubar.

Google und IBM ziehen nach

Nach dem viralen Erfolg von Deep Dream im Sommer zog Google im November nach. Unter dem Namen TensorFlow präsentierte der Konzern seine eigene Entwicklerplattform für maschinelles Lernen. Die Software ist ebenfalls Open Source und läuft auf einem gewöhnlichen PC, ist aber gleichzeitig komplex genug für professionelles Deep Learning. In einem Artikel für das Fachmagazin Popular Science schreibt Dave Gershgorn, dass TensorFlow die Forschung jedes Unternehmens im Bereich der künstlichen Intelligenz beeinflussen könnte. Google bekomme damit eine gewisse Autorität in diesem Forschungsfeld.

Das hofft auch IBM von seinen Projekten. Die Plattform Watson und der gleichnamige Supercomputer sollen in Zukunft unter anderem selbstständig E-Mails beantworten können, Argumente abwägen und in komplexen Anwendungen in der Gesundheits- und Finanzbranche zum Zuge kommen. Die als SystemML bekannte Software ist eine Nummer kleiner und vor allem zur Verarbeitung von großen Datensätzen in Industrie und Wirtschaft gedacht. Doch auch SystemML ist seit Ende November unter der Schirmherrschaft der Apache Foundation als Open-Source-Software verfügbar.