Wenn es die Kanzlerin sagt, muss es ja stimmen: "Ich glaube, dass die Fähigkeit zum Programmieren eine der Basisfähigkeiten von jungen Menschen wird, neben Lesen, Schreiben, Rechnen." Das sagte Angela Merkel bei der Eröffnung der Computermesse Cebit in diesem Jahr, und auch der ehemalige US-Präsident Barack Obama (sein Nachfolger hat sich noch nicht zum Thema geäußert) forderte seine jungen Bürger auf, das Coden zu lernen: "Kauft nicht einfach nur ein neues Videospiel – macht eins. Ladet nicht nur die neueste App runter – helft dabei, sie zu entwickeln. Spielt nicht nur auf eurem Telefon – programmiert es."

Aber muss in der modernen Welt wirklich jedes Kind in der Lage sein, eine App für sein Handy zu programmieren? Muss jeder eine Programmiersprache beherrschen? Python statt Französisch, Java statt Latein? Und wann fängt man damit an – im Kindergartenalter oder erst mit 14? In der Schule oder in privaten Kursen?

Rufe nach neuen Unterrichtsinhalten oder gar neuen Fächern gibt es häufig, und sie entstehen oft aus dem Gefühl eines Defizits heraus: Junge Menschen können nicht mit Geld umgehen, also brauchen wir ein Fach wie "Persönliche Finanzen". Die Kinder fallen auf Fake-News herein oder verbringen zu viel Zeit vor der Glotze, also muss das Fach "Medienkunde" her. Sie bewegen sich zu wenig und werden immer dicker? Dann muss "Gesundheit" auf den Lehrplan. Auch die Forderung nach den Programmierkursen wird vor allem mit Ängsten begründet: Es fehlen 43.000 Programmierer, Deutschland muss international wettbewerbsfähig bleiben, darf nicht den Anschluss an die technische Entwicklung verlieren. Also sollte die Ausbildung der jungen Computerfachleute am besten schon im Kindergarten beginnen.

In dieser Angstdiskussion ist das Programmieren – vor allem für diejenigen, die es selbst nicht beherrschen – eine Art Wunderwaffe, die alle Zukunftsprobleme aus der Welt schaffen soll. "Wenn man keinen Hammer hat, sehen alle unlösbaren Probleme aus wie Nägel", schrieb der Medienkritiker Sascha Lobo im Frühjahr auf Spiegel Online. "Die Kenntnis einer Programmiersprache steht als Pars pro Toto für die Hoffnung, unsere Kinder mögen die gewaltige Gesellschaftsaufgabe Digitalisierung doch besser meistern als wir."

Die Diskussion erinnert an die neunziger Jahre, als der Computer für die meisten Erwachsenen ein neues und oft furchterregendes Gerät war. Die Kinder sollten es einmal besser haben, also wurde viel in die Ausstattung der Schulen mit Rechnern investiert, teilweise bekam jedes einzelne Kind seinen eigenen Laptop. Aber die Hardware allein ist es nicht: Im Jahr 2013 veröffentlichte das amerikanische National Bureau of Economic Research die Ergebnisse einer Studie, bei der man einer zufälligen Stichprobe von Sechst- bis Zehntklässlern einen Heimcomputer zur Verfügung gestellt hatte. Nach einem Jahr hatten sich deren Schulnoten und Testergebnisse gegenüber der Kontrollgruppe nicht verbessert, dafür hatten sie erheblich mehr Zeit mit Computerspielen verbracht.

Auch die Beherrschung einer Programmiersprache macht nicht automatisch fit für die Zukunft, und umgekehrt kann man die neue Welt durchaus verstehen, ohne wirklich coden zu können. Um es plakativ auszudrücken: Man muss nicht unbedingt die Sprache der Computer verstehen, sondern ihr Denken.

Auf Englisch nennt man diese Fähigkeit computational thinking. Die Informatikerin Jeannette M. Wing von der Carnegie Mellon University hat den Begriff geprägt. "Computational thinking beinhaltet Problemlösen, den Entwurf von Systemen und das Verständnis für menschliches Verhalten", schreibt Wing. Also viel mehr als die Produktion von Hunderten von Zeilen mit fehlerfreiem Code. Es geht einerseits darum, ein Problem so umzuformulieren, dass ein Computer es bearbeiten kann. Aber auch darum, zu verstehen, wieso ein Computer zu bestimmten Resultaten kommt.