13 Pro Max Kamera ( Bilder sind unnatürlich)

Also die Kamera ist komisch, irgendwas stimmt da nicht.

Ich hab als unscharfe Bilder mit dem 13 Pro, draußen bei perfektem Wetter und ohne störendere Elemente im Vordergrund wo der Fokus falsch drauf gesetzt werden könnte. Gesichter und z.B. Hände sind dann auch total zugeschmiert, da sieht man keinerlei Details auf der Haut mehr. Wie ein Beautyfilter auf maximaler Stufe, also wirklich arg. Aber auch ohne Person sind die Bilder teils unscharf, wie nicht richtig fokussiert. Aber das ist nicht immer so, ansonsten stimmt die Qualität und es ist scharf, teils sogar zu scharf da die Software immer recht stark nachschärft.

Kann mir das nicht erklären. Ist das noch Jemandem aufgefallen?
Zeig uns doch bitte so eine Aufnahme.
 
Eine Frage zum HEIF Format der iPhone 13 Modelle:
Wird hier wirklich nur in 8Bit / Farbe gespeichert obwohl der HEIF-Standard auch 16 Bit / Farbe könnte? Falls ja, hat Apple hier einen Grund genannt?
Und im Pro RAW Modus sollen es auch nur 12 Bit / Farbe sein.... Schade, ein paar "Reserven" für die Bildbearbeitung wären gut gewesen.
 
Eine Frage zum HEIF Format der iPhone 13 Modelle:
Wird hier wirklich nur in 8Bit / Farbe gespeichert obwohl der HEIF-Standard auch 16 Bit / Farbe könnte? Falls ja, hat Apple hier einen Grund genannt?
Und im Pro RAW Modus sollen es auch nur 12 Bit / Farbe sein.... Schade, ein paar "Reserven" für die Bildbearbeitung wären gut gewesen.

Ein Sensor, der vielleicht nur 8-9 Stufen Dynamik einfangen kann, kann mit 16bit nichts anfangen. Die meisten Monitore haben nur 8bit, ein paar wenige 10bit. Wo nichts zu holen ist, da gibt es auch keine Reserven. ProRAW ist auch kein echtes RAW, da wurde vorher schon softwareseitig eingegriffen.
 
  • Gefällt mir
Reaktionen: Tommac187
"Richtige" Kameras von Nikon, Canon und Sony speichern 14 Bit / Farbe und der Dynamikumfang bei ISO 100 liegt so zwischen 11-14.
Ja, die haben auch Vollformatsensoren, aber dass die Fotosensoren im iPhone so viel schlechter sind wundert mich doch...

Das iPhone könnte ja durch Mehrfachbelichtung in Kombination mit der Neural Engine nacharbeiten.
 
Macht es doch, aber das sind eben errechnete Bilder. Aktuelle Kameras liegen eher bei 11-12 Blendenstufen, 14+ dann bei Phase One und 50.000€. Das iPhone hat ja auch um ein Vielfaches kleinere Sensoren und weitaus schlechtere Objektive.
 
  • Gefällt mir
Reaktionen: dg2rbf
Macht es doch, aber das sind eben errechnete Bilder.
Okay, aber wenn Apple diese "optimierten" Fotos dann wieder nur mit 8 Bit / Farbe im HEIF Format speichert (anstatt die vollen 16 Bit nach der Softwarepptimierung zu nutzen), ist das doch irgendwie suboptimal.
 
  • Gefällt mir
Reaktionen: dg2rbf
Wenn der Sensor es nicht packt, nutzt es auch nichts. Auch wenn du in Photoshop aus 8bit 16bit machst, die Informationen sind nicht vorhanden. An meinen Kameras habe ich auch keine 16bit, warum auch. Zudem kann das kein Display darstellen und über 99% der Displays haben eh nur 8bit. Dadurch werden die Datenmengen ohne Mehrwert größer.
 
  • Gefällt mir
Reaktionen: dg2rbf
Mit Smart HDR bzw. mehreren Belichtungen sollte Apple mehr Dynamikumfang aus dem Sensor / System herausholen können. Davon ein paar Bits / Farbe mehr abspeichern würde wie im RAW-Format dann Luft für die Nachbearbeitung etc. liefern.
Aber Apple scheint das komplette Prozessing "versteckt" durchzuführen und das "heruntergerechnete" Ergebnis in 8 Bit / Farbe abzuspeichern.
Das finde ich halt suboptimal. Aber wahrscheinlich will Apple sich seinen ProRaw Modus nicht kanibalisieren der nur in den neuesten Pro Modellen enthalten ist.
 
Je nach Sensor ist ein Vollformatsensor zwischen 24,5 und 70,8 Mal so groß wie die des iPhones und die liegen bei den aktuellen High-End-Modellen bei 11-12 Blendenstufen Dynamikumfang.
HDR und der ganze Quatsch bringt nur was, wenn alles absolut ruhig ist und dann muss die Automatik auch exakt sein, in Echtzeit. Bei den großen Kameras kann man ruhig 2-3 Blenden über- und unterbelichten, am iPhone geht das eben nicht. Was Apples eigene Kamera macht, weiß ich nicht, mit ProCamera wären 10bit möglich, aber der Spielraum ist und bleibt extrem klein. Selbst wenn sie auf 14bit gehen, die Informationen fehlen einfach. Für HDR nehme ich auch ein Stativ, ISO kann ich bedenkenlos auch höher ansetzen, am iPhone nicht. Je höher die ISO, desto niedriger die Dynamik.
 
  • Gefällt mir
Reaktionen: herberthuber und dg2rbf
Völlig richtig - ein Vollformatsensor einer "richtigen" Kamera spielt hier in einer anderen Liga - das erwarte ich auch nicht von einem iPhone.

Aber: Hier 3 Aufnahmen von mactechnews zum Vergleich: 1. HEIC/HEIF - 2. ProRAW - 3. ProRAW Nachbearbeitet

HEIF.jpg ProRAW.jpg ProRAW Edited.jpg

Kleiner Sensor hin oder her - mit mehr gespeicherten Bits / Farbe (12 Bit bei Apple ProRAW) ist deutlich mehr aus den Fotos rauszuholen.
 
Zuletzt bearbeitet:
mit mehr gespeicherten Bits / Farbe (12 Bit bei Appel ProRAW) ist deutlich mehr aus den Fotos rauszuholen.
wobei das ProRAW unbearbeitet mit Abstand am Natürlichsten aussieht.
Und ja, der Hintergrund brennt ein bisschen aus, aber das ist eben auch in der Realität so.
Deine Bearbeitung macht das Ganze dann extrem unnatürlich, aber ich vermute (hoffe), sie soll nur zeigen, was theoretisch geht und was nicht.
 
Deine Bearbeitung macht das Ganze dann extrem unnatürlich, aber ich vermute (hoffe), sie soll nur zeigen, was theoretisch geht und was nicht.
Korrekt - das Beispiel sollte nur aufzeigen wieviel "Reserve" in den 12 Bits / Farbe bei ProRAW steckt. Und so etwas wäre auch schön wenn Apple das beim "normalen" HIEF/HEIC Fotos auch so abspeichern würde. ProRAW zeigt dass es vom Sensor + Interne Bearbeitung teilweise machbar ist.
 
mir würde es schon reichen, wenn Apple beim ProRAW komplett nichts tun würde.
Leider greifen hier schon Automatiken, die ich persönlich selten gelungen finde.
Schärfe, Sättigung, Kontrast etc., da übertreibt die KI gerne mal.
 
Korrekt - das Beispiel sollte nur aufzeigen wieviel "Reserve" in den 12 Bits / Farbe bei ProRAW steckt. Und so etwas wäre auch schön wenn Apple das beim "normalen" HIEF/HEIC Fotos auch so abspeichern würde. ProRAW zeigt dass es vom Sensor + Interne Bearbeitung teilweise machbar ist.

Aber genau das wollen viele nicht, dass bei RAW eingegriffen wird. Und das ist das Problem am ProRAW. Das mag hier jetzt funktionieren, aber lass es mal etwas dunkler und bewegter werden (Wind und Äste), oder fotografiere mal was mit Fell, das ist völliger Murks der dabei rauskommt.
Wenn du jetzt mal Fotos hernimmst und Capture One und versuchst, die Lichter wiederherzustellen, wirst du sehen, dass die Informationen im Bild sind, die Software ist nur absurd schlecht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: maba_de
Völlige Zustimmung: Bei ProRAW wäre Apple gut beraten, keine weitergehenden Softwareoptimierungen vorzunehmen (außer eben den Dynamikbereich auszuschöpfen).

Für die HEIC/HEIF Fotos könnten sie dann gerne optimieren und das aber trotzdem mit 12 Bit speichern. So hätten alle was davon:
- Die RAW-Fotografen hätten weitestgehend unveränderte Fotos zur persönlichen Nachbearbeitung
- Die HEIC/HEIF Fotografen bekämen die optimale Ausnutzung des Formates (12 - 16 Bit) inkl. Softwareoptimierung (gerne können die Optimierungsparameter in der Foto-App einstellbar sein).

Aber Apple scheint die Vorzüge von HEIC/HEIF nicht völlig auszunutzen (außer vielleicht der geringeren Speichergröße der Fotos). Und das wundert mich.... (oder eben auch nicht, wenn sie sich das ProRAW nicht als Highlight kanibalisieren wollen)
 
Aber man hat doch 10bit, 12/14/16 würden doch nur Sinn ergeben, wenn diese auch eingefangen werden können. Meine R5 und Q2 liegen bei knapp 12 Blendenstufen und fangen weitaus mehr Farben und Abstufungen ein - und das bei 14bit Files. Was soll das dann am iPhone nutzen, wenn ich es nicht einmal sehen kann und das iPhone gar nicht die Informationen auf den Sensor bekommt? Wie gesagt, nimm Lightroom oder Capture One und vergleiche die RAWs aus ProCamera und die HEIC Files aus der iPhone Kamera und schau dann mal, wie wenig Fotos wiederherstellen kann, da liegt doch eher das Problem, dass Apple verlernt hat, was mit Aperture damals gut angefangen hatte.
 
  • Gefällt mir
Reaktionen: dg2rbf
das iPhone hat sich stets bemüht:
Der Grund ist, dass das iPhone sich stets dazu bemüßigt fühlt, die Qualität der Aufnahmen zu verbessern.
:hehehe:
 
Ist ja jetzt nichts Neues :crack: Die Software ist Murks, auch für die Bildbearbeitung. Da pennt man halt in Cupertino.
 
  • Gefällt mir
Reaktionen: dg2rbf
Spannend, was der Youtuber Marques Brownlee (MKBHD) über das iPhone 14 Pro schreibt (Übersetzung durch Safari):
Wie der YouTuber zeigt, versucht das iPhone 14 Pro immer, die Schatten aufzuhellen, besonders auf den Gesichtern der Menschen, wodurch das Foto sehr künstlich aussieht. Das iPhone übertreibt auch die Schärfe der Fotos im Vergleich zu anderen Smartphones. MKBHD beschwert sich sogar, dass sein Hautton auf der iPhone-Kamera ganz anders aussieht.

Apple ruiniert die iPhone-Kamera mit all diesen intelligenten Funktionen​

Auch wenn das iPhone über großartige Kamerahardware verfügt, wird es durch all die intelligenten Funktionen wie Smart HDR, die Apple in den letzten Jahren eingeführt hat, ruiniert. Jedes Jahr fügt das Unternehmen der Kamera-Nachbearbeitung noch mehr Schritte hinzu. Aber anstatt die Fotos besser zu machen, machen sie es einfach unnatürlicher.

Quelle: https://9to5mac.com/2023/01/06/mkbhd-post-processing-ruining-iphone-photos/

Das schreibe ich schon seit Jahren, die Schärfe ist völlig übertrieben und die Farben stimmen nicht.
 
Zurück
Oben Unten