Fotoqualität iPhone 12/Pro

Wenn das Resultat vom 12er iPhone dagegen nicht absolut beeindruckend ist weiß ich aus auch nicht. :i:):
Ich habe da vielleicht einen nicht gerechtfertigten Anspruch, das mag sein, vor allem, wenn man meine Bilder kennt :hehehe:.
ABER, in meinen Bilder passiert nichts zufällig und das, was Smartphones mit den Bildern anstellen ist zufällig.
Wenn ich anfange, in RAW zu arbeiten und hinterher am Rechner sitze, um das Bild fertigzustellen, dann kann ich es auch gleich mit der Kamera aufnehmen, um die nötigen Reserven und die nötige Qualität im Ausgangsmaterial zu haben.
 
Das ist der Punkt. Was das iPhone macht, ist „zufällig“. Für mich hängt letztlich alles davon ab, was in der Nachbearbeitung möglich ist. Und das war – bisher – quasi nichts. Hat sich das mit dem 12er Pro Max und dem neuen RAW-Format geändert?
Da wären vergleiche interessant. Also RAW Ausgangsmaterial iPhone und dann verschiedene Entwicklungsstufen. Wie groß ist der Dynamikumfang beim neuen iPhone überhaupt?
 
"Zufall" ist wohl das falsche Wort, insb. da es um deterministische Algorithmen geht. Da kommt durchaus raus was Apple möchte, da kann man sich sicher sein. Ist halt nur nicht zwangsläufig das, was der Nutzer will. :i;):
 
So ist es. Darum die Frage, was danach machbar ist. Sonst ist das Ganze nicht wirklich ein Fotoapparat im Sinne eInes „richtigen“ Fotografen.
 
Wie groß ist der Dynamikumfang beim neuen iPhone überhaupt?

Apple spricht beim ProRAW Bild von 14 Blenden. Damit ist aber nicht die Hardwareeigenschaft des Fotosensors gemeint (so wie das bei anderen Kameras der Fall ist), sondern die durch Software kombinierte verfügbare "Dynamic Range"
Da werden ja auch verschiedene Belichtungen verwurschtelt um die dann in einem Bild (DNG) zu vereinen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rs254, zeitlos und helloimamac
Doch, das geht, Capture One kann alle Anpassungen, Kameraprofile und Farbkorrekturen verwerfen. Das ist sogar die Ausgangsbasis um die Kamera zu kalibrieren, bzw. ein Farbprofil eigens für die Kamera zu erstellen.

Das ist dennoch eine Interpretation der Daten durch die Software. Nachdem es keinen einheitlichen RAW-Standard gibt, muss das bereits auf die Kamera abgestimmt sein, um überhaupt zu funktionieren. Die Software kann z.B. nicht einfach den gleichen Algorithmus auf x-trans-Dateien anwenden, wie auf Bayer-Dateien. Funktioniert einfach nicht. Natürlich kann die Software Korrekturen für Verzeichnungen u.ä. beiseite lassen. Das ändert nichts daran, dass du bereits eine Interpretation siehst, und nicht ein "richtiges RAW". Du siehst das, was die Algorithmen der Software aus den RAW-Daten machen.

Manuelles Fokussieren würde ich auch nicht als Spleen bezeichnen, wieso auch...

Habe ich auch nicht. Aber ein Spleen ist es, absichtlich in eine Kamera keinen Autofokus einzubauen, obwohl man es könnte, und das auch noch als Feature zu verkaufen. Finde ich jedenfalls - darf man natürlich gerne anders sehen.

Mich hat es sogar in meiner Fotografie extrem weiter gebracht.

Das mag sein (auch, wenn ich nicht weiß wie, weil ein Autofokus hindert dich nicht daran, den Fokus dort hinzusetzen, wo du ihn haben willst). Nur hättest du halt auch an jede andere Kamera ein manuelles Objektiv schrauben können, und so dieselben Fortschritte machen können. Egal - es ist einer von mehreren Punkten, die Leica nicht unbedingt zum Software-Vorreiter machen. Damit sage ich aber nicht, dass sie nicht ihren appeal haben.

Zur Software: in Sachen Computational Photography sicherlich nicht, aber jeder der Kamerahersteller kocht sein eigenes Süppchen was die Farben angeht (gerade bei JPEGs) und ich glaube darauf bezog ich @Veritas auch ein wenig.

Für mich war die Aussage ganz klar: "Apple berechnet nichts vernünftiges aus den Rohdaten des Smartphones, aber Leica könnte das". Und diese Aussage halte ich halt für gewagt. Aber egal, es wird immer mehr off-topic, meine Meinung dazu steht nun ausreichend da ;)

So ist es. Darum die Frage, was danach machbar ist. Sonst ist das Ganze nicht wirklich ein Fotoapparat im Sinne eInes „richtigen“ Fotografen.

Das wird ohnehin noch eine ganze Weile so bleiben, das scheitert ja schon and der Usability. Wer will denn in Menüs herumsuchen und am Touchscreen Einstellungen verstellen, anstatt mit vernünftigen Drehrädern?
Dennoch finde ich's beeindruckend, was aus den iPhones grundsätzlich rauskommt. Dafür muss ich nicht jedes Ergebnis mögen. Man darf aber auf alle Fälle nicht erwarten, dass das Ergebnis genau dem entspricht, was man mit der großen Ausrüstung und manueller Nachbearbeitung erreicht hätte. Das kann ja gar nicht gehen.
 
  • Gefällt mir
Reaktionen: davedevil, Micky-DD und greenflo
Das wird ohnehin noch eine ganze Weile so bleiben, das scheitert ja schon and der Usability. Wer will denn in Menüs herumsuchen und am Touchscreen Einstellungen verstellen, anstatt mit vernünftigen Drehrädern?
Dennoch finde ich's beeindruckend, was aus den iPhones grundsätzlich rauskommt. Dafür muss ich nicht jedes Ergebnis mögen. Man darf aber auf alle Fälle nicht erwarten, dass das Ergebnis genau dem entspricht, was man mit der großen Ausrüstung und manueller Nachbearbeitung erreicht hätte. Das kann ja gar nicht gehen.

Ich denke, das wird auch keiner erwarten. Zumidnest keiner, der halbwegs was von Fotografie versteht. Deswegen ja meine Frage: Was ist aus den RAWs des 12er Max noch rausholbar. Und nicht: Kommt man damit an eine SLR ran. ;)
 
  • Gefällt mir
Reaktionen: greenflo
Ich muss sagen, dass sich die automatischen Fotos (HEIC) meines iPhone X nicht auf Anhieb von den unbearbeiteten Fotos meiner A7III (ARW oder JPG) unterscheiden lassen. Erst wenn man genauer hinschaut, sieht man natürlich die Unterschiede und erst recht, wenn man sich viel Zeit für das Fotografieren gelassen und dann noch aufwändig nachbearbeitet hat.
Und das ist dann auch der Grund, warum ganze Kamerakategorien ihre Existenzberechtigung verloren haben! Entweder man schleppt die kiloschwere hochwertige Vollformat-Ausrüstung mit, weil man etwas ganz besonderes vorhat oder es reicht ein gutes modernes Smartphone. Für die Qualitätsstufen dazwischen wie MFT oder APS-C ist da eigentlich schon gar kein Platz mehr.
Man merkt ja auch an den Neuerscheinungen der Kamerahersteller, dass fast nur noch HighEnd produziert wird, insbesondere beim fast nur noch auf Vollformat ausgerichteten Objektivmarkt.
 
  • Gefällt mir
Reaktionen: peterge, herberthuber und Schnatterente
Für die Qualitätsstufen dazwischen wie MFT oder APS-C ist da eigentlich schon gar kein Platz mehr.

MFT kenne ich nicht gut genug. Aber für APS-C würde ich dir definitiv widersprechen. Deine Aussage ist auch sehr pauschal. Welche Fotos meinst Du? Bei welchen Bedingungen? Was verstehst Du unter „ganz„ besonderes? Und: ich gehe mit Dir jede Wette ein, dass eine Ricoh GR III (passt in die Hosentasche) Dein iPHone X in vielen Fällen mehr als alt aussehen lässt. Mit anderen Worten: Du musst nicht kiloschwere Ausrüstung mit Dir rumschleppen, damit ein iPhone X nicht mal mehr ansatzweise mithalten kann.

Wem für die Fotografie ein iPhone X reicht, für den kommt eine bessere Kamera mit größeren Sensor von vorne herein nicht in Frage.
 
  • Gefällt mir
Reaktionen: rs254 und helloimamac
@zeitlos Ich möchte meine Aussage ergänzen. Ich finde solche Vergleiche wie "meine Kamera lässt deine mehr als alt aussehen" nicht zielführend. Ich meine, die Fotografie hat noch weit mehr Aspekte als nur die technischen.

Tatsache ist, dass moderne Smartphones in der Lage sind, hervorragende Abbildungsqualitäten zu liefern. Sie sind ultrakompakt, immer dabei und schnell zur Hand. Was dabei herauskommt, ist weit mehr als gut genug. Die Folge ist, dass die Kameraindustrie einen spektakulären Niedergang erlebt seit ein paar Jahren. Olympus wird mittlerweile von einem Finanzkonsortium geführt, Nikon hat enorme Schwierigkeiten, weil sie außer Kameras und Objektiven kein weiteres Standbein in ihrem Portfolio haben.
Der gesamte Kompakt-Kameramarkt ist verschwunden mit Ausnahme von ein paar HighEnd-Modellen, die aber dann auch extrem teuer sind.
Wo du noch einen Qualitätsunterschied siehst und wo dann auch im Moment die Verkaufssituation noch einigermaßen profitabel ist, das ist der Vollformatbereich, wo die Kunden auch mal eben so 1.000€ für ein Objektiv ausgeben oder 2.500€ für einen Body (oder sogar das Doppelte).
Sony bringt ein GM-Vollformatobjektiv nach dem anderen heraus, wohingegen das Angebot an günstigen APS-C Linsen sehr überschaubar ist. Das hat schließlich seine Gründe! Und das ist die rasante Entwicklung der Kameratechnik in den Smartphones.

Was mich betrifft: Ich nehme manchmal meine große Fototasche mit, wenn ich z.B. die Absicht habe, aufgrund besonderer Lichtverhältnisse eine besondere Landschaft zu fotografieren, oder weil ich in einem schummrigen Club Bühnenfotos machen will, oder ich plane eine Serie über die romanischen Kirchen Kölns. Dann packe ich alles Mögliche ein, was ich eventuell für interessante Aufnahmen brauchen könnte, oft sogar ein Stativ. Natürlich sind dann die Aufnahmen besser als mit einem Smartphone, aber es kostet auch einen enormen Aufwand!
Wenn ich eine Fahrradwanderung mache, sieht die Sache schon anders aus. Aufgrund der widrigen Gepäcksituation muss ich mich dann schon beschränken. Mein 12-24er und mein 70-300er müssen dann schon zuhause bleiben und es bleiben dann nur noch Brennweitenbereiche übrig, die ich auch beim Smartphone zur Verfügung hätte. Und wenn ich in einer Gruppe fahre, kann ich mir dann auch noch nicht einmal so viel Zeit zum Fotografieren nehmen, wie ich sie alleine hätte. Wenn ich dann vergleiche, was am Ende dabei herauskommt, ist der Unterschied zu den Aufnahmen, die ich mit dem Smartphone gemacht hätte, gar nicht mehr so wahnsinnig groß, wenn überhaupt relevant.
Wenn ich dann auch noch eine 20km Wanderung mache, werde ich einen Teufel tun und meine schwere Ausrüstung mitnehmen. Und trotzdem kommen schöne Fotos dabei heraus. Ich könnte noch nicht einmal sagen, wie schön die Aufnahmen mit meiner großen Ausrüstung geworden wären, weil ich sie ja nicht mit dabei hatte!

Oder anders: wenn ich mich künstlerisch betätigen will, komme ich mit einer großen Kameraausrüstung sicher weiter, es sei denn, die bewusste Beschränkung auf ein Smartphone ist Bestandteil des Konzepts. Es ist im Grunde fast so, als wenn sich jemand mit einer HighEnd Kamera ganz bewusst mit einer einzigen Pancake-Festbrennweite für Streetfotografie auf den Weg macht. Außerdem: Die Qualität von Erinnerungsfotos, Schnappschüssen, Dokumentationen, selbst von Pressefotos ist von weitaus mehr abhängig als von einem cremigen Bokeh oder geringer Verzeichnung oder einem besonders geringen Rauschen, sondern davon, zur rechten Zeit und am richtigen Ort auf den Auslöser gedrückt zu haben.

Wenn ich durch meinen Katalog gehe und meine Fotos der letzten 3 Jahre anschaue, kann ich nicht sagen, dass die Fotos, die ich mit meinem iPhone gemacht habe, qualitativ stark abfallen, bei weitem nicht! Nur wenn ich dann auf 100% oder 200% vergrößere, merke ich natürlich, dass ich bei einigen Fotos nur 12 Megapixel zur Verfügung hatte oder dass die Details etwas von Artefakten beeinträchtigt sind. Aber bei normaler Bildschirmdarstellung (5K) ist die Bildqualität ausgezeichnet.

Ich habe noch eine A6400 (eigentlich eine tolle Kamera), aber die benutze ich so gut wie gar nicht mehr. Sie nimmt die undankbare Rolle eines Zwischendings zwischen Smartphone und Vollformat-Systemkamera ein. In meinen Augen ist sie obsolet.
 
  • Gefällt mir
Reaktionen: herberthuber, maccoX, Sorrow und 3 andere
Das ist dennoch eine Interpretation der Daten durch die Software. Nachdem es keinen einheitlichen RAW-Standard gibt, muss das bereits auf die Kamera abgestimmt sein, um überhaupt zu funktionieren. Die Software kann z.B. nicht einfach den gleichen Algorithmus auf x-trans-Dateien anwenden, wie auf Bayer-Dateien. Funktioniert einfach nicht. Natürlich kann die Software Korrekturen für Verzeichnungen u.ä. beiseite lassen. Das ändert nichts daran, dass du bereits eine Interpretation siehst, und nicht ein "richtiges RAW". Du siehst das, was die Algorithmen der Software aus den RAW-Daten machen.

Eben nicht, kennst du die Bilder aus Capture One mit der linearen Kurve und dem Profil No Color Color Correction? Das sind die Ausgangsdaten, die ich zum Erstellen des Kameraprofils nutze. Auch zum Bestimmen der Kurve für den Dynamikumfang, die ich im Belichtungsmesser ablege. Würden die verändert werden, könnte ich die Dynamik nicht bestimmen lassen und die Farben auch nicht. Da Capture One jedes Jahr die Engine anpasst und sogar noch für Kameras aus 2008 neue Profile rausbringt, würde die Kalibration ja gar nicht funktionieren.
 
Entweder man schleppt die kiloschwere hochwertige Vollformat-Ausrüstung mit, weil man etwas ganz besonderes vorhat oder es reicht ein gutes modernes Smartphone. Für die Qualitätsstufen dazwischen wie MFT oder APS-C ist da eigentlich schon gar kein Platz mehr.
Warum ist dann Fuji so erfolgreich?
Die haben APS-C und kein Vollformat. Ich weiß, in deiner Sony Welt kommen die nicht vor, aber die Realität sieht so aus, dass Fuji den Kameramarkt mit den ach so obsoleten Sensoren ziemlich aufgemischt hat.
 
  • Gefällt mir
Reaktionen: rs254
Wo du noch einen Qualitätsunterschied siehst und wo dann auch im Moment die Verkaufssituation noch einigermaßen profitabel ist, das ist der Vollformatbereich, wo die Kunden auch mal eben so 1.000€ für ein Objektiv ausgeben oder 2.500€ für einen Body (oder sogar das Doppelte).

Schau dir mal die aktuellen Canon und Nikon Preislisten an, da kommst mit 1.000€ nicht weit ;) Der Umstieg auf die R5 würde mich nur vom Body, Akkus und Speicherkarten ca. 5.500€ kosten, das 28-70er liegt bei ~3.000€ und das äquivalent zu meinem 16-35er kostet jetzt das doppelt von dem, was ich bezahlt hatte.
 
  • Gefällt mir
Reaktionen: rs254
Eben nicht, kennst du die Bilder aus Capture One mit der linearen Kurve und dem Profil No Color Color Correction? Das sind die Ausgangsdaten, die ich zum Erstellen des Kameraprofils nutze. Auch zum Bestimmen der Kurve für den Dynamikumfang, die ich im Belichtungsmesser ablege. Würden die verändert werden, könnte ich die Dynamik nicht bestimmen lassen und die Farben auch nicht. Da Capture One jedes Jahr die Engine anpasst und sogar noch für Kameras aus 2008 neue Profile rausbringt, würde die Kalibration ja gar nicht funktionieren.

Ich hab’s dir eh schon erklärt, warum das trotzdem nicht das “echte RAW” ist. Was du da machst, ist ja eine Kalibrierung innerhalb von C1. Da rechnet dir C1 also vorher eine möglichst neutrale Darstellung aus. Aber das ist dennoch die Interpretation der Daten durch C1, und deshalb muss C1 an der Stelle auch wissen, mit welcher Kamera es zu tun hat. Das ist genau so lange “echt”, wie man die C1-Algorithmen als Naturgesetz betrachtet.

Für die Qualitätsstufen dazwischen wie MFT oder APS-C ist da eigentlich schon gar kein Platz mehr.
Man merkt ja auch an den Neuerscheinungen der Kamerahersteller, dass fast nur noch HighEnd produziert wird, insbesondere

Liegt’s wirklich an der Qualität, die ein MFT-Sensor bietet (oder nicht bietet)? Das wage ich zu bezweifeln.
Aber so eine MFT-Kamera macht halt keine Computational Photography. Da muss der Fotograf selbst mitdenken, sollte von der Materie Ahnung haben, und dann selbst nachbearbeiten.
Das Smartphone hingegen übernimmt viel der Denkarbeit, und bearbeitet dann so nach, dass gefällige Resultate out-of-the-box herauskommen. Schnappschüsse sehen plötzlich viel besser aus, als das SOOC-Ergebnis der “echten Kamera“. Und man muss dafür gar kein separates Gerät schleppen.
Das gefällt der Masse, und deshalb sind viele Kamera-Kategorien weggebrochen. An den “Qualitätsstufen” liegt’s mMn nicht, sondern daran, dass die meisten nur hübsche Fotos wollen, ohne dafür Aufwand zu betreiben.
 
fotografiert ihr schon, oder labert ihr noch ? :D
 
  • Gefällt mir
  • Haha
Reaktionen: Compikub, rs254, Carmageddon und 2 andere
Du weisst doch selber, dass das ständige hin und her hier nix bringt.
Naja ... scheinbar nicht. ;)
 
Ich hab’s dir eh schon erklärt, warum das trotzdem nicht das “echte RAW” ist. Was du da machst, ist ja eine Kalibrierung innerhalb von C1. Da rechnet dir C1 also vorher eine möglichst neutrale Darstellung aus. Aber das ist dennoch die Interpretation der Daten durch C1, und deshalb muss C1 an der Stelle auch wissen, mit welcher Kamera es zu tun hat. Das ist genau so lange “echt”, wie man die C1-Algorithmen als Naturgesetz betrachtet.

Die Kalibrierung findet beides Mal außerhalb von Capture One statt. Du kannst dann das Profil auf die Bilder in Capture One oder Lightroom anwenden, exportieren und in Photohop öffnen, die Bilder sind nahezu gleich, die minimalen Abweichungen kommen daher, dass ich in Lightroom nicht linear exportieren kann.
 
Die Kalibrierung findet beides Mal außerhalb von Capture One statt.

Wie genau meinst du das? Dass du das Bild nicht mit C1 aufnimmst, ist schon klar, aber die Daten interpretiert C1 und das Profil legt C1 an. Also ist das Ergebnis vom C1-Algorithmus abhängig.
 
  • Gefällt mir
Reaktionen: greenflo
Zurück
Oben Unten