Das iPhone 16 Pro Max

Der folgende Artikel ist über 13.000 Zeichen lang. Um ihn zugänglicher zu gestalten, habe ich ihn eingesprochen. Für Abonnenten von #one habe ich die Audiodatei zusätzlich in den persönlichen RSS-Feed eingestellt.

Wenn jeder Chat über jeden Bildschirm flimmert, jedes Midjourney-Bild von einem Rechenzentrum gerechnet wird, und jede ChatGPT-Frage durch eine beliebige Browser-Tür läuft, dann stellt sich die Frage: Wie wichtig ist noch lokale Hardware?

Wie viel Rechenpower braucht es in der eigenen Hand? Ist das iPhone bereits ein „Thin Client“? Kann Aluminium, Titan und Plastik in einem rechteckigen „slab of glass“ noch ein Alleinstellungsmerkmal haben? Wie viel Spielraum ist aus dem Smartphone-Formfaktor überhaupt noch herauszukitzeln? Und wie viel ist schlicht „gut genug“?

Das Bild zeigt ein iPhone mit dem Apple-Logo, das an eine rostige Metallwand gelehnt ist. Oben links in der Wand befindet sich ein rundes Loch. Das Smartphone hat drei Kameralinsen auf der Rückseite.

Apples Marketing überschattete mit „Intelligence“ dieses Mal die eigene Hardware – inklusive dem auf Augenhöhe mitspielenden Nicht-Pro-Modell. Später mehr dazu …

Das „Pro“ setzt sich in diesem Jahr durch ProMotion, Always-On und ausgewählte Kamera(-Funktionen) ab. Es sind wenige, aber „Pro“-würdige Unterschiede, wie etwa die ProRes-Video­aufnahmen bis zu 4K mit 120 fps. Keine Kamera, inklusive der Fotowerkzeuge von Sony, Nikon oder Canon, kann dauerhaft und über Stunden hinweg – ohne Unterbrechung oder Überhitzung – in 4K / 120fps filmen.

„Zero shutter lag“ für 48 MP HEIF- und Apple ProRAW-Fotos ist ebenso bemerkenswert. Das iPhone trickst hier nicht mehr und greift sich einen anderen Frame als den, den ihr über den Auslöser bestimmt.

Einen exakten Moment augenblicklich festzuhalten (und durch beliebig vielfaches Auslösen in viele Erinnerungen einzufrieren), ist insbesondere für alle Motive, die sich bewegen, unersetzlich.

JPEG-XL verspricht die branchenweite Hoffnung für ein lizenzfreies und quelloffenes Foto-Format, das proprietäre Eigenbröteleien für die vielen unterschiedlichen RAWs der Kamerahersteller beendet. Es dauerte mitunter Jahre (!), dass die Fotos neuer Kameras von den OS-Herstellern aufgenommen wurden.

JPEG-XL bietet eine moderne Kompression und umfasst alle Workflows – von der (professionellen) Produktion bis zur Publikation. Es ist ein Format, das abhängig von seinem Anwendungsfall kleiner oder größer ausfallen kann.

Der Hoffnung, dass dieses Angebot von der gesamten Branche angenommen wird, dem kann man sowohl optimistisch als auch pessimistisch gegenüberstehen. Dass Apple, als weltweit größter Kamerahersteller, jedoch zukunftsorientiert damit voranschreitet, ist erwähnenswert.

Zugegeben: Sie sind dazu in der Lage, weil der A18-Chip bei der notwendigen Software-Encodierung nur verschlafen gähnt. Kamerahersteller warten hier noch auf dedizierte Hardware-Bausteine, die das stemmen können.

Das Bild zeigt ein iPhone, das an ein rostiges Metallrohr gelehnt ist. Auf dem Bildschirm ist eine Fotobearbeitungs-App geöffnet, die eine Aufnahme von Kopfsteinpflaster und einer Tür anzeigt. Unten auf dem Display befindet sich ein Farbanpassungstool.

Fotografische Stile sind nun ein ernsthaftes Fotowerkzeug, weil man sie nun auch nachträglich ändert. Man wirft hier keinen „Filter“ über die gesamte Aufnahme, sondern farb-verschiebt etwa gezielt Hauttöne und manipuliert getrennt die Intensität des Himmels.

Es war von Tag 1 mein Lieblingsfeature dieses neuen Telefons. Es wäre jedoch wünschenswert, wenn Apple die Möglichkeit der Anpassungen als Schnittstelle auch anderen Foto-Apps freigibt, die sich dadurch derzeit arg benachteiligt im App Store die Beine in den Bauch stehen.

Wer übrigens richtig tolle Aufnahmen aus dem iPhone 16 anschauen möchte, scrollt durch die entsprechende Kategorie auf Glass.

Die 48 MP Ultraweitwinkel-Kamera

Gegenüber dem Vorjahr bleibt die Sensorgröße der Ultraweitwinkel-Kamera gleich, aber die Pixel werden kleiner. Damit knipst der Quad-Pixel-Sensor schärfere Bilder in hellen Umgebungen. Gleichzeitig muss ihm jedoch in Situationen mit weniger Licht unter die Arme gegriffen werden. Fotos aus dem iPhone-15-Weitwinkel stellen sich in der direkten Gegenüberstellung mit dem iPhone 16 teils kontrastreicher dar.

Das Bild zeigt ein Smartphone, vermutlich ein iPhone, das aufrecht an einem Metallträger lehnt. Im Hintergrund ist ein großes Backsteingebäude zu sehen. Eine Spinnwebe ist im linken oberen Bereich des Bildes sichtbar.

Es ist eine typische Kosten-/Nutzen-Entscheidung; Apple optimierte auf prachtvolle Landschaftsaufnahmen und majestätische Makro-Fotos. In beiden Fällen helfen die kleineren Pixel.

Anders hätte hier nur ein physikalisch größerer Sensor geholfen – so wie damals beim Sprung aufs iPhone 14. Ich hoffe, wir sehen diesen Sprung in den nächsten Jahren – gerne zuerst in der 5x Tele-Kamera. Die wäre mir wichtiger.

Falls sich jemand wundert: Die Aufnahmequalität für Spatial Videos hat sich durch mehr Megapixel im Weitwinkel nicht verbessert. Einzige Änderung gegenüber dem letzten Jahr: Die Nicht-Pro-Modelle zeichnen nun auch kurze Clips für die Vision Pro auf.

„Don’t call it a button!“ Die Kamerasteuerung.

Das Bild zeigt ein iPhone 16, das im Kameramodus gehalten wird. Auf dem Bildschirm sind Zoomoptionen wie 0,5x, 1x und 2x sichtbar. Im Hintergrund ist eine unscharfe städtische Szenerie zu erkennen.

Im Jahr 2017 wechselte Apple von Touch ID zu Face ID. Seit 2019 halten sich Gerüchte, dass Touch ID – Apples Fingerabdrucksensor – in die iPhones zurückkehren könnte.

Vielleicht war das alles nur Wunschdenken oder jemand verwechselte das mit Touch ID auf iPads; möglicherweise wurde es per Hörensagen auch einfach nur missinterpretiert. Fünf Jahre später zeigt Apple nun aber seine Kamerasteuerung, die in einer abstrakten Konstruktionszeichnung sicherlich „Touch ID“ ähnelt.

Ein Smartphone wird von einer Hand gehalten, die ein blaues Armband trägt. Das Gerät hat eine seitliche Taste und eine schlanke, metallische Kante. Im Hintergrund ist ein bemalter Stein mit einem Segelboot zu sehen.

iPhones erhalten nicht jedes Jahr neue Hardwaretasten. In den letzten zwei 12 Monaten gönnte uns Apple jedoch gleich zwei neue Knöpfe am Gehäuserahmen.

Ein Smartphone steht aufrecht an einer Wand, vermutlich auf einem gepflasterten Boden. Die Kamera zeigt die seitlichen Tasten des Geräts. Im Hintergrund sind unscharf Gebäude und ein Schornstein zu sehen.

Technisch betrachtet ist der Schalter ein kleines Meisterwerk; software-technisch zeigt er sich jedoch überambitioniert. Für den ersten Anlauf hätte es komplett ausgereicht, wenn er die Kamera aufruft, ein Foto knipst und zwischen den Brennweiten wechselt.

Die zusätzlichen Kamera­features – von den Belichtungseinstellungen bis zur Auswahl der Styles – hätten als eine Option in den Settings die bessere Figur gemacht. Apple hätte hier zum Start eine konkrete Entscheidung treffen sollen, keine Multiple-Choice-Auswahl.

Ich kann nachvollziehen, wenn jemand den „Light-Press“ komplett deaktiviert (➝ Einstellungen ➝ Bedienungshilfen). Der Druckpunkt sitzt tief. Damit man seine Fotoaufnahme nicht verwackelt, drückt man also eher vorsichtig. So ein leichter Druck auf die Kamerasteuerung ruft aber eventuell unbeabsichtigt das Optionsmenü auf.

Der Action-Button bekam bis heute keine doppelte Belegung; eine Mehrfachbelegung lässt sich bislang nur über Shortcuts realisieren. Das ist jedoch eine Einschränkung, die die Aufgabe des Buttons unmissverständlich deklariert.

Das Bild zeigt die Rückseite eines Smartphones mit drei großen Kameralinsen und einem Blitz. Das Gerät hat ein silbernes Gehäuse und das Apple-Logo ist deutlich sichtbar. Im Hintergrund sind unscharfe städtische Strukturen zu erkennen.

Die Bedeutung der Kamerasteuerung hört jedoch nicht bei Fotos auf; die Kamera avanciert zu einem Sensor in der Welt.

Dabei ist Visual Intelligence (aka „Google Lens“) nur ein möglicher Anwendungsfall. Der dedizierte Button stellt die Informationseingabe über die Kamera in den prominenten Mittelpunkt – gleichwertig zur Tastatur und Sprache(-eingabe).

Evan Spiegels Snap predigt das seit Jahren; Apple tastete sich mit Funktionen wie Live Text nur langsam heran. Jetzt räumen sie dieser Eingabemethode jedoch ihren berechtigten Platz über einen dedizierten Hardware-Button ein.

Ein solcher Taster war nicht nur für die Kamerabedienung überfällig (deshalb auch der berechtigte Name „Kamerasteuerung“), sondern dient als computergestützte Erweiterung der Realität – man mag es auch Augmented Reality nennen.

Ein aiPhone? Ein Super Cycle? Nein.

Apple Intelligence ist Apples Versprechen von systemweit verknüpften Funktionen, die die alltägliche Nutzung unserer Computer vereinfachen, indem sie dafür eure persönlichen Daten einbeziehen. Es ist geradezu der explizite Gegenentwurf von einem Chatbot à la Perplexity oder ChatGPT.

Ich erwähne es hier, weil Tim Cook das iPhone 16 ausdrücklich als „designed from the ground up“ für Apple Intelligence vermarktet. Die harte Wahrheit: Zum Start bedeutet das lediglich mehr Arbeitsspeicher – alles andere kommt später.

Das Bild zeigt ein Smartphone, das an eine rostige Metalloberfläche gelehnt ist. Auf dem Bildschirm sind verschiedene Apps und ein Wetter-Widget zu sehen. Im Hintergrund ist verschwommenes Wasser erkennbar.

Mit dem diesjährigen iPhone beschreitet Apple den (langen) Weg, Apps zu Datenlieferanten des Betriebssystems zu machen. Stichwort: App Intent.

So könnte mein Stromanbieter, der mir abhängig von der Tageszeit unterschiedliche Preise anbietet, diese Informationen ans System liefern. Ohne die App aufzurufen, könnte ich so zukünftig meine Sprachassistenz danach fragen. So zumindest die Theorie.

Es ist ein (verdammt) großes Versprechen (an die Nutzer:innen), mit noch größeren Fragezeichen (für die Entwickler:innen), ob damit eine gegenseitig konstruktive sowie profitable Beziehung entstehen kann.

Angekündigt sind derzeit lediglich einfache AI-Funktionen, so wie sie Anthropic, Leonardo.ai oder Deepl bereits besser anbieten – soweit es möglich war, habe ich Apples Intelligence ausprobiert. Die Drittangebote sind zwar nicht direkt integriert, aber mit ein paar Euro im Monat lassen sie sich auf jedes iPhone-Modell dazubuchen.

Wahrscheinlich haben wir in Europa erst zum nächsten iPhone – im Herbst 2025 – eine grobe Vorstellung von Apple Intelligence. Ob wir dann bereits Zugriff darauf haben, steht schlicht bis jetzt nicht fest.

„Another year, another iPhone?“

Der Umstand, dass man diese Telefon-Generation auch locker aussitzen könnte, ist weniger der Beweis für eine fehlende Weiterentwicklung, sondern für den durchschlagenden Erfolg.

Die Summe aller Features ist dieses Jahr groß – QuickTake Videos, die geschrumpften Display-Ränder sowie die gesteigerte Audioaufnahmequalität waren mir separate Artikel wert.

Obendrein hat Apple die Basics der Hardware im Griff. Selbst Kontroversen bleiben (bislang) aus. Viel fühlt sich nach einem makellosen Jahr für das iPhone an, während gleichzeitig die Software mit einem fundamentalen Generationswechsel droht.

Das Bild zeigt die untere Ecke eines Smartphones, das auf einer Oberfläche steht. Der Fokus liegt auf der abgerundeten Kante des Geräts, während der Hintergrund unscharf ist. Auf dem Bildschirm sind verschwommene App-Symbole zu erkennen.

Dieses Jahr legten sowohl der AI Pin von Humane als auch der Rabbit r1 eine peinliche Bauchlandung hin. Abseits der eigenen Schwierigkeiten scheiterten sie auch am Smartphone – weil es ihre Funktionen bereits mühelos erfüllt.

Alles kreist weiterhin ums Telefon. Es wurde jedoch die Idee gepflanzt, dass AI diesen Thron angreifbar macht.

„Defining smartphones, since 2007.”

Anstelle, das alles cool abzuschütteln, lenkte Apple Intelligence von seiner so verlässlichen Hardware ab.

Wir würden keinem dieser Telefone inzwischen mehr verzeihen, wenn sie heute funktioniert und morgen an der gleichen Aufgabe scheitert.

Zuverlässigkeit bleibt ein absolut unterschätztes Feature. Niemand will Beta-Tester sein oder ein Spielzeug kaufen. AI und AI Gadgets sind größtenteils aber noch genau das: Sie sind unzuverlässig; sie vermissen Erwartbarkeit.

Genau damit sollte Apple werben. „That’s iPhone.“

Das Bild zeigt ein Smartphone, das auf einer Fensterbank steht. Auf dem Bildschirm sind verschiedene Apps und ein Kalender-Widget mit dem Datum "6. Oktober, Sonntag" zu sehen. Das Gerät hat ein modernes Design und zeigt eine 5G-Verbindung an.

An einer Kaufempfehlung fürs 16 (Pro) ändert das alles nichts. Man shopt sich ein iPhone, wenn man eins benötigt – ähnlich wie ein MacBook. Was wäre die Alternative? Kein Telefon?

Deshalb wäre es eine clevere Idee dafür eine Art jährlichen „upgrade service“ anzubieten … oh, Moment.

Das Bild zeigt ein Smartphone mit einer Sperrbildschirm-Anzeige. Oben links ist das Netzwerksignal von Telia FI zu sehen, und oben rechts wird der 5G-Empfang angezeigt. Auf dem Bildschirm ist die Uhrzeit 12:18 sowie ein Kalender mit dem Datum 6. Oktober sichtbar.

Der Jahrgang ist jedenfalls gut, wenn iPhone Pro und iPhone Nicht-Pro dicht aneinander liegen, und sich Pro- und Pro-Max lediglich durch ihre Bildschirmgröße und (famose) Akkulaufzeit unterscheiden. Beides ist in diesem Jahr der Fall.