Welche native Auflösung hat die iPhone (SE 2) Kamera?

Dann wird da Softwareseitig irgendwas hochgerechnet, würde ich auch als Mist bezeichnen
 
  • Gefällt mir
Reaktionen: dg2rbf
Krass, interpolierte Auflösung wo Bildteile fehlen bei doppeltem Speicherbedarf 🤣

Danke für den Vergleich, das ist echt absurd!
Wie gesagt, da bleibt dir nix anderes übrig als die WhatsApp Kamerafunktion zu meiden. Versende einfach deine normal geknipsten Bilder.
 
  • Gefällt mir
Reaktionen: Ken Guru
Mit ist gerade aufgefallen, dass die Brennweite von 32 auf 30mm geändert wird. Das erklärt auch die Auflösung.

Alle, die ein iPhone SE haben können einfach mal die Fotos App öffnen und von der Foto Option auf die Video Aufnahme switchen. Dann ändert sich das Format. Beim Foto hat man oben und unten einen schwarzen Balken, beim Video ist das Bild formatfüllend mit mehr sichtbaren Bildinhalt
 
Beide Fotos aufgenommen mit see Frontkamera. Das erste als normales Foto, das zweite aus einer Videoaufnahme heraus. Das hat also nichts mit WhatsApp zu tun
Puh, du solltest so was nicht nachträglich rein editieren…. Also beides von der original Kamera App?

Bilder aus Videos zu machen ist nie besonders sinnvoll und stellt nur eine Notlösung dar. Die Einzelbilder sind nämlich nicht so scharf und nachbearbeitet und können immer nur maximal die Videoauflösung haben, welche immer - allein schon wegen dem 16:9 Format - unter der Originalauflösung liegt. Vermutlich wird hier einfach versucht das Bild noch irgendwie zu verbessern und deswegen interpoliert und Heic steht da wohl nicht zur Verfügung. Ist eben nur eine Notlösung, während eines Videos bekommt man keine guten Bilder und schon gar keine im vollen 4:3 Format.
 
Kein Ahnung, warum die Fotos aus einem Video heraus nochmal so stark interpoliert werden, aber de facto beschneidest du dich damit, weil die Frontkamera eine maximale Videoauflösung von 1920 x 1080 (Full HD) hat
 
Da wird aber nichts interpoliert. Ich kann doch sehen, wie ich mehr aufs Bild bekomme, wenn ich einfach von Foto zu Video Wechsel. Die Brennweite ändert sich ja auch. Und die Qualität ist auch nicht schlechter. Ich habe das heute Mittag schon getestet und habe keinen Unterschied in der Qualität feststellen können.

So wie ich das sehe, wird hier doch kein Foto aus einem Video Frame gezogen, sondern während der Aufnahme ein ganz normales, zusätzliches Foto gemacht? Sonst hätte das Foto ja die selbe Auflösung wie das Video und wäre viel kleiner

Edit: ich mache morgen nochmal Vergleichsfotos und schau mir die Bildinformation mal genau auf dem Mac an. Vielleicht erfahre ich da mehr
 
  • Gefällt mir
Reaktionen: Fritzfoto
Da wird aber nichts interpoliert. Ich kann doch sehen, wie ich mehr aufs Bild bekomme, wenn ich einfach von Foto zu Video Wechsel.
Doch es wird interpoliert weil du diese Auflösung nativ gar nicht hast. Auf einem Video gibts nie mehr Bildinhalt wie bei einem Foto, das geht gar nicht, im Gegenteil, Videos sind immer auf 16:9 beschnitten und manchmal sogar noch leicht reingecroppt.

So weit ich das weis kann während einer Videoaufnahme auch heutzutage noch kein wirkliches Bild geschossen werden, es wird immer ein Frame des Videos genommen und halt entsprechend nachbearbeitet und optimiert.
 
Wie gesagt - es wird nichts interpoliert, wenn ich vom Wechsel von Foto auf Video mehr ins Bild bekomme.
Es wird sich bestimmt irgendjemand hier im Forum finden, der auch ein SE hat und das bezeugen kann.

Bzw schau ich mir das ganze morgen nochmal auf dem Mac an.
 
An der physikalischen Menge der Pixel kann das Objektiv nichts ändern, aber Natürlich kann sich durch eine andere „Brennweite“ der Ausschnitt verändern.
Obwohl andere Brennweite auch hier anders zu verstehen ist, diese ergibt sich nur aus dem veränderten Sensorbreich und Bildformat bei der Videoaufnahme, denn das Objektiv ist ein Festbrennweite!
 
Möglicherweise fällt dir der Qualitätsunterschied nicht auf, weil dein iPhonedisplay eine deutlich kleinere Auflösung als Full HD hat.
 
Unabhängig von der Qualität des Bildes und der Auflösung haben wir hier 2 verschiedene Seitenverhältnisse, die nicht ersichtlich machen, was für ein Sensor in der Kamera steckt. Apple selber kommuniziert das nicht. Die Auflösung von 3088x2320 findet man deswegen im Netz, weil dieser Wert nunmal in der EXIF Datei steckt. Apple gibt ja nur 7MP an und nicht mehr.

Ich habe also jetzt nochmal 2 Vergleichsfotos gemacht. Tatsächlich ist die Qualität des Bildes aus der Videoaufnahme schlechter als die, aus der Fotoaufnahme. Also kann man davon ausgehen, dass die Auflösung von 3656x2058 interpoliert ist.

Das ganze Thema könnte man nun wunderbar abschließen, wenn nicht die Tatsache wäre, dass ich auf dem Foto aus dem Video (bzw. bei der Videoaufnahme selber) mehr Bildinhalt erhalte, als beim Foto. Wie ist das möglich?


Hier nochmal ein Vergleichsbild:

1.JPG


Links als normales Foto aufgenommen, rechts ein Foto aus einem Video aufgenommen. Wie ihr sehen könnt, wird bei dem rechten Bild an den Rändern links und rechts etwas vom Bild weggeschnitten, aber oben und unten kommt mehr Inhalt hinzu. Und das kann eigentlich nicht sein.

Für mich bedeutet das nun folgende Möglichkeiten:

a) in der Frontkamera steckt kein 4:3 Sensor, sondern ein nativer 16:9 Sensor

b) in der Frontkamera steckt eine zweite Kamera mit 16:9 Sensor, von dem bisher niemand wusste

c) in der Kamera steckt ein 4:3 Sensor, das Bild wird im nachhinein aber aus einem mir unerklärlich Grund unmöglich gecroppt

Anbei auch nochmal die Originale.
https://1drv.ms/u/s!AoRPruQe7BMHjbEgEgOi1MtDiqqlAg?e=M41Rbb
 
Man könnte auch annehmen, dass der Sensor zwar 7MP als Datei in Apple-eigenen Apps ausgibt, aber eine größere Fläche für die Bildstabilisierung aufweist. Daher eventuell auch die 30mm anstatt der 32mm, wenn WhatsApp darauf nicht zurückgreift.
 
  • Gefällt mir
Reaktionen: Ken Guru
Das iPhone hat ja aber eine optische Bildstabilisation, welche in der Linse verbaut ist und greift nicht auf eine softwarebasierte Stabi zurück. Bei zweiteren wird ja durch ständiges Begradigen und Zurechtschneiden das Bild stabilisiert.

Und ie 7MP bzw. die Auflösung habe ich auch in anderen Apps, wie ACDSee Pro.
 
  • Gefällt mir
Reaktionen: Ken Guru
Stimmt, die Frontkamera hat keine. Als fällt die Theorie mit der Stabilisierung ohnehin flach. Es wird wohl ein ungelöstes Rätsel bleiben. Wundert mich eigentlich, dass das bisher noch keinem weiter aufgefallen ist.
 
Naja. So => :noplan:
:hehehe:

Weils einfach wurscht is. Theorien gibts viele. Warums so is, kann dir nur Apple beantworten. Alles andere sind halt Mutmaßungen - welche bekanntlich auch niemanden weiterbringen.

Ein Crop eines Sensors kann viele Gründe haben. Um immer den gleichmöglichsten Bildausschnitt zu bekommen. Um die vigbettierten Ränder verschwinden zu lassen. Etc. pp.
 
  • Gefällt mir
Reaktionen: dg2rbf
Laut Apple hat die Frontkamera eine automatische Bildstabilisierung.
 
Als fällt die Theorie mit der Stabilisierung ohnehin flach.
Nö, wenn sie eine Hardwarestabilisierung hätte schon, aber das mit der Softwarestabilsierung ist echt garnicht so abwegig.
 
In der Tat verwendet das iPhone SE 2 bei der Frontkamera zwei unterschiedliche Bildbereiche (und Auflösungen) für Foto und Video.

Hier ist das Prinzip an einem Bild erklärt: (Multi Aspect Ratio Sensor)
https://mirrorlesscomparison.com/panasonic-vs-panasonic/gh5-ii-vs-gh5s-vs-gh6/


Zur Info: Panasonic hat das damals bei der GH5s auch schon praktiziert, um den Sensor bestmöglich auszunutzen.
https://www.panasonic.com/mea/en/consumer/cameras-camcorders/lumix-g-micro-four-thirds-system/cameras/dc-gh5s.html#specs
Man kann das hier recht schön an der Auflösung der einzelnen Formate sehen:
4:3: 3680x2760(L) / 3328x2496(4K PHOTO)
3:2: 3840x2560(L) / 3504x2336(4K PHOTO)
16:9: 4016x2256(L) / 3840x2160(4K PHOTO)
 
Zurück
Oben Unten