iPhone 12: Stabilisiert Apple den Sensor, statt die Linse?

iPhone 11 Pro, Bild: Apple

Derzeit nutzen Anbieter von Foto- und Videokameras vor allem zwei Methoden, um das Verwackeln zu verhindern. Sie versuchen das Bild optisch zu stabilisieren und tun dies an der Linse, oder sie stabilisieren den Bildsensor.

DigiTimes behauptet (Paywall), dass Apple im kommenden Jahr den Wechsel der Technologie bei (einigen) iPhones plant.

Vorteile bei Sensorstabilität

Sorgt man für die Sensorstabilität, kann das gegenüber OIS Vorteile bringen. Einer davon ist offensichtlich. Denn man muss nicht jede Linse einzeln stabilisieren, sondern beschränkt sich lediglich auf den Sensor. Davon profitieren alle Linsen „gleichermaßen“.

Apple nutzt beim aktuellen iPhone 11 Pro die optische Bildstabilisierung lediglich bei der Standard- und Telefoto-Linse. Der Ultraweitwinkel hat stattdessen kein OIS.

Dazu bedeutet die Bildstabilisierung an der Linse immer auch Einschränkungen bei der Bauweise. Die könnte Apple so umgehen. Vielleicht gibt es dann auch keinen Kamerabuckel mehr?

Mehr Funktionen für die Kamera

Doch der Wechsel zur Sensorstabilisierung bietet noch mehr Möglichkeiten.

Ben Lovejoy nennt nur zwei mögliche Beispiele aus der Praxis. Die nutzen schon jetzt einige Kameras, die auf Sensorstabilisierung setzen.

So erlaubt der stabile Bildsensor einerseits ziemlich einfach ein zusammengesetztes Bild mit höherer Auflösung zu erstellen. Denn indem man den Sensor beliebig in der Position anpasst, kann er andere Bildausschnitte belichten, die durch den Computer hinterher zu einem Foto zusammengesetzt werden. Dies geschieht heute in Windeseile und wir bekommen davon nichts mit.

Außerdem könnte Apple dem Sensor einen Trick beibringen. Für besondere Aufnahmen zum Beispiel des Sternenhimmels könnte der Sensor seine Position analog zur Erdrotation verändern. So erzielt man tolle Effekte bei langzeitbelichteten Aufnahmen.