Ob sie so raffiniert ist, dass auch andere Gegner als das neuronale Netzwerk Eve keine Chance haben, die geheimen Botschaften zuverlässig zu entschlüsseln, ist deshalb auch unklar. Möglicherweise würden andere Gegenspieler mit anderen Fähigkeiten als Eve in kürzester Zeit eine Schwachstelle in der Methode entdecken. Damit ist sie für den Einsatz im Alltag untauglich. Das gilt für alle Krypto-Algorithmen, die eine künstliche Intelligenz entwickelt. Denn vertrauenswürdig ist Verschlüsselung nur, wenn klar ist, auf welchem mathematischen Problem sie beruht, oder anders: wenn klar ist, wie lange es dauern würde, den Schlüssel zum Entschlüsseln einer Nachricht zu erraten.

Man muss die Arbeit von Abadi und Andersen deshalb aber nicht als Spielerei abtun. Ihnen geht es weniger darum, menschliche Kommunikation mit Methoden zu verschlüsseln, die eine Maschine entwickelt hat. Vielmehr schwebt ihnen ein Szenario vor, in dem eine bestimmte Komponente eines mehrteiligen neuronalen Netzwerks einen Teil der Input-Daten nicht verarbeiten können soll, während andere Komponenten das dürfen. Arbeitet ein solches mehrteiliges Netzwerk zum Beispiel mit datenschutzrelevanten Daten, wäre es hilfreich, wenn man eine Komponente zum Gegner erklärt und die anderen Komponenten herausfinden lässt, wie sie bestimmte Input-Daten oder darauf basierende Werte vor ihm verbergen.

Die beiden Google-Brain-Forscher schreiben zudem, Kryptografie beinhalte mehr als nur Verschlüsselung. Dass neuronale Netzwerke irgendwann besonders gut beim Entschlüsseln helfen, erscheine "unwahrscheinlich". Sie könnten allerdings "recht effektiv in der Analyse von Verkehrs- und Metadaten" sein und vielleicht in anderen Bereichen der angewandten Kryptografie eingesetzt werden, zum Beispiel in der Steganografie oder zur Erzeugung von Zufallszahlen.