Einen inoffiziellen Preis hatte Googles neues Android-Smartphone schon vor der Vorstellung am Dienstagnachmittag gewonnen: Das Pixel 4 ist das Smartphone, das in diesem Jahr am häufigsten geleakt wurde, von dem also vorab schon viele Details bekannt waren. In den vergangenen Monaten tauchten unzählige Bilder auf: Sowohl kanadische als auch britische Händler stellten versehentlich Produktinformationen online, und Google selbst twitterte bereits im Juni ein offizielles Bild und verriet in einem Blogbeitrag einige der neuen Funktionen. Maximale Geheimniskrämerei wie bei Apple und seinem iPhone? Geschenkt.

Googles entspannter Umgang mit vorab veröffentlichten Informationen ist verständlich. Jedes Jahr, teilweise sogar stets in der gleichen Kalenderwoche, stellen die Hersteller ihre neuen Smartphones vor. Wirkliche Überraschungen gibt es selten. Ein etwas schnellerer Prozessor, klar, ein bisschen mehr Speicher, sicher, und aus einer Kamera wurden erst zwei, dann drei, inzwischen sind es in manchen Geräten wie in Huaweis Mate30 Pro sogar vier, die immer bessere Porträt- und Nachtaufnahmen liefern sollen. Anders gesagt: Die Käuferinnen und Käufer wissen ungefähr, was sie erwartet.

So überrascht dann auch das Pixel 4 kaum. Vielleicht dauerte die Produktvorstellung in New York deshalb nur eine knappe Stunde. Wie der Vorgänger ist Googles neues Smartphone in zwei Größen erhältlich: Das Pixel 4 hat eine Bildschirmgröße von 5,7 Zoll, das Pixel 4 XL ist mit 6,3 Zoll deutlich größer, aber bloß 30 Gramm schwerer.

Bei der Bildschirmgröße und -auflösung und einem etwas leistungsfähigeren Akku im XL hören die Unterschiede zwischen den beiden Modellen auch schon auf: Beide enthalten sechs Gigabyte Arbeitsspeicher, den gleichen Prozessor, einen neuen "Pixel Neural Core" (dazu gleich mehr) und die gleichen Kameras.

Das Google Pixel 4 in Orange © ZEIT ONLINE

Im Vergleich zu den Vorgängern fällt auf: Google hat sich von seinem einzigartigen, aber durchaus umstrittenen Zweifarbendesign verabschiedet. Die matte Rückseite des Pixel 4 ist nun wie bei den meisten anderen Herstellern einfarbig. Erhältliche Farben sind Schwarz, Weiß und, mal was anderes, ein Orange in einer limitierten Auflage. Den Farbton bezeichnet Google als "Oh So Orange" und er ist, sagen wir, gewöhnungsbedürftig.

Dual-Kamera mit Chip zur Bildbearbeitung

Für Liebhaber sind auch die Kameras. Schon der Vorgänger hatte eine der besten Smartphone-Kameras, mit dem Pixel 4 möchte Google den Trend weiterführen. Das Unternehmen setzt dabei erstmals auf zwei Dual-Pixel-Kameras auf der Rückseite: eine mit 16 Megapixeln Auflösung und ein Weitwinkelobjektiv mit zwölf Megapixeln. Das ähnelt dem iPhone 11, ebenso wie die quadratische Anordnung des Kamerasystems auf der oberen linken Rückseite. Man könnte sagen: Mit dem Pixel 4 und dem iPhone 11 nähern sich Apple und Google an – jedenfalls im Design.

Wie genau die beiden Smartphones im Vergleich abschneiden, müssen die ersten Tests zeigen. Google wirbt in seinem Pixel 4 mit einem neuen "Pixel Neural Core", einem zusätzlichen Chip, der vor allem für die Bildbearbeitung genutzt wird und die Weiterentwicklung des "Pixel Visual Core" ist. Einzelne Tester hatten ihn bislang als die "geheime Zutat" der Pixelreihe bezeichnet. Vereinfacht gesagt sorgt die Einheit dafür, dass vor allem Bilder bei schlechten Lichtverhältnissen oder mit viel Dynamic Range (HDR) besser zur Geltung kommen, weil das aufgenommene Foto noch einmal von einer Software bearbeitet wird. Puristen mögen diese "computational photography" hassen, andere aber loben die satten Farben und scharfen Porträts, die bislang aus dem Pixel kamen.

Mithilfe zwei neuer Regler in der Kamera-App sollen Fotografinnen mit dem Pixel 4 noch genauer die Helligkeit und Schatten anpassen können. Mit dem neuen Astrofotografie-Modus sollen zudem Langzeitaufnahmen von bis zu vier Minuten möglich sein. Dazu muss es aber idealerweise fixiert sein. So können Sterne und auch die Milchstraße am Nachthimmel abgelichtet werden. Vorausgesetzt natürlich, man findet einen Ort, an dem der Himmel auch dunkel genug dafür ist. In Deutschland muss man dazu unter Umständen etwas länger suchen. Die Rotation der Erde während der Langzeitbelichtung soll durch die Software ausgeglichen werden.