Quicktime Player zeigt Video überbelichtet

Die 32 Bit dienen nur dem Zweck, die Anteile im HDR-Bild darzustellen, die der Monitor eben nicht natürlich darstellen kann - was man nicht sieht, kann man auch nicht nutzen - soweit klar, aber der Zweck der Bearbeitung in 32 Bit ist es ja eben, die HDR-Darstellung so zu verschieben, dass sich die "überbelichteten" und "unterbelichteten" Bereiche trotzdem darstellen lassen, um sie zu bearbeiten und zu nutzen, sodass sie im exportierten Bild doch sichtbar sind. (Ritson demonstriert dies anhand einer Aufnahme in Tokio - sehr beeindruckend, obwohl die 32 Bit im Endergebnis gar nicht genutzt werden / können)

Wie dem auch sei, die Grenze zwischen "Pixelwahn" und sinnvoller Nutzung möglichst vieler Pixel ist fließend. Ich hatte mal das Vergnügen, mit einer Fuji Mittelformat Kamera mit einem 100 MB-Sensor zu fotografieren, die mittels eines 8-fachen Pixelshifts am Ende ein 400 MB - Bild erzeugte, in welches man endlos hineinzoomen kann. Es kommt auf den Zweck an und der Fotograf dem die Kamera gehört, macht oft großformatige Architekturaufnahmen - die Pixelmenge ist also durchaus interessant für sein Handwerk.

Wir haben im Studio auch schon mit 8 K gefilmt (auf Kundenwunsch), obwohl es zu dem Zeitpunkt noch gar keine wirkliche Möglichkeit gab, diese Videos auch in Originalauflösung zu zeigen. Abgesehen von den gigantischen Datenbergen, eher etwas für ein Langzeitarchiv ;).

So schlecht finde ich das RAW Modul von Affinity übrigens gar nicht - obwohl es da, zugegebenermaßen, komfortablere Lösungen gibt. Da ich die Option aber auch nicht so häufig benötige, reicht es.

Wir schweifen vom Thema ab, aber ein Fazit gibt es doch: Wenn man schon in HDR aufzeichnet / fotografiert, sollte man um die "Tücken" wissen und die "Überbelichtung" durch das Fotografieren mit leichter Unterbelichtung bei den Einstellungen im Vorfeld kompensieren. 1-2 Blendenstufen, je nach Situation reichen meist, aber das heißt, man müsste sich mit der Materie auseinandersetzen - ist natürlich "bequemer" in einem Forum die "falsche Darstellung" in einer Software wie Quicktime zu monieren ;)
 
Wir schweifen vom Thema ab, aber ein Fazit gibt es doch: Wenn man schon in HDR aufzeichnet / fotografiert, sollte man um die "Tücken" wissen und die "Überbelichtung" durch das Fotografieren mit leichter Unterbelichtung bei den Einstellungen im Vorfeld kompensieren.

nur nochmals zur Klarstellung:

Die HDR-Fotos / Videos des iPhones sind JPEG oder auch HEIC Dateien, die 2 "Bilder" enthalten. Das erste ist ein ganz normales 8-Bit je Farkanal JPEG, das zweite Bild enthält die HDR-Helligkeitsinformationen.

Das hat nichts mit 32-bit je Farbkanal HDR-Fotos / Videos zu tun.

Vorteil (oder Nachteil, je nachdem wie man es nimmt)

Auf aktullen Apple-Displays wird bei Nutzung von Apple-Software, die maximal möglichen Helligkeitswerte des Displays, die mittlerweile bis 2000 nits gehen, ausgenutzt. Dazu werden eben die Helligkeitswerte des 2. Bildes mit herangezogen und an das Display zu den betreffenden Pixeln gesendet.

Nicht-Apple-Software kann dies nicht. Da wird dann halt nur das 1. Bild, also das normale 8-Bit-JPEG angezeigt. Und auf nicht Apple-Displays mit eben weniger nits, ebenso.
 
Nicht-Apple-Software kann dies nicht. Da wird dann halt nur das 1. Bild, also das normale 8-Bit-JPEG angezeigt.
Also zumindest bei Fotos muss ich widersprechen: PixelmatorPro kann das schon lange - da gibt es einen Knopf, der HDR (wenn vorhanden) ein-/ausschaltet und das funktioniert sehr gut und genau wie in der Fotos.app/Vorschau.app/...
PixelmatorPro gehört zwar nun auch zu Apple, aber das ist ja erst ein paar Wochen so.
 
Also zumindest bei Fotos muss ich widersprechen:

okay, da es hier im Thread bei den genannten Programmen immer nur um einige konkret genannten Apps ging, dachte, ich die Bezeichnung "Nicht-Apple-Software" würde sich aus dem Kontext ergeben.

War wohl nicht so.

Daher: In diesem Thread (nicht in allen anderen von mir geposteten Beiträgen) verstehe ich unter "Nicht-Apple-Software" solche Software, die auf open-source-libraries und -tools aus dem Linux-Umfeld basiert, also "open-source-libraries-und-tools-Linux-Umfeld-Software"
 
2000 nits + Sonnenbrille? ;)
Wenn Du meinen Beitrag bezüglich Affinity Photo + RAW genau liest, erkennst Du, dass ich nirgendwo von 32 Bit je Kanal geschrieben habe, sondern dass sich in den Einstellungen zur RAW-Bearbeitung 32 Bit EINSTELLEN lassen, sogar mit nicht HDR Fotos (macht natürlich nicht so viel Sinn). Serif hat diesen Schritt gewählt (so die Programmierer), um die vollen HDR Informationen (egal aus welchen HDR-tauglichen Aufnahmen) herausarbeiten zu können. Wenn man die Möglichkeit hat, auf verschiedene Kamerasysteme zugreifen zu können, erkennt man den Sinn recht schnell > die HDR-Aufnahmen lassen sich gezielt anpassen, um sie auch in "normaler" Darstellung in ihrer vollen Informationsfülle anzeigen zu können. (angepasst natürlich).

Soweit ich mich erinnere, nennst Du Lisa auch eine Fuji X-T5 Dein Eigen? Hast Du es mal ausprobiert, wie z.B. James Ritson seine Vorgehensweise beschreibt? Es ergibt Sinn, vor allem wenn das Motiv mit besonders heftigen Kontrasten dazu passt (z.B. Nachtaufnahmen mit extremen Werten im Helligkeits- und Dunkelbereich). Naja, jeder wie er mag, den meisten reicht es "abzudrücken" und die Bilder in irgendwelchen social-media direkt zu posten …
 
Wenn Du meinen Beitrag bezüglich Affinity Photo + RAW genau liest, erkennst Du, dass ich nirgendwo von 32 Bit je Kanal geschrieben habe, sondern dass sich in den Einstellungen zur RAW-Bearbeitung 32 Bit EINSTELLEN lassen, sogar mit nicht HDR Fotos (macht natürlich nicht so viel Sinn).

ich weiß, dass du von 32-bit-Kanal-Bearbeitung gesprochen hast.

Die ist aber intern bei vielen Apps vorhanden und nichts besonderes. Selbst open-source-Software wie GIMP arbeitet intern mit 32-bit-Farbkanäen. Und ich bin mir recht sicher, dass auch Adobe das tut. Das ist nichts besonderes von Affinity.

Andererseits sprichst auch du von HDR-Aufnahmen ...

um die vollen HDR Informationen (egal aus welchen HDR-tauglichen Aufnahmen) herausarbeiten zu können.

... und da frage ich mich, wie du das definierst, also ab welcher Bittiefe je Farbkanal du einen Aufnahme als HDR bezeichnest.

Und zu meiner X-T5.

Die zeichnet RAWs mit 12 bit je Kanal auf, meine Q3 macht 14 bit. Weder die RAWs der X-T5 noch die der Q3 würde ich als HDR-Aufnahmen bezeichnen.

Da nehme ich oft genug in kontrastreichen Situationen (ich fotografiere gerne gothische Kircheninnenräume) Belichtungsreihen auf (meist 3 Bilder mit +/- 2 stops). Wenn ich die dann in LRC zusammenrechnen lasse, dann wird daraus ein 32-bit-Farbkanal Bild generiert.

Ich bezeichne ein 32-bit-Kanal Bild als HDR-Aufnahme. Mein Eindruck ist, dass das so auch von den meisten anderen Quellen/Berichten/Fotografen/Entwicklern/Usern/sonstwem so bezeichnet wird.

Dass Apple das mit dem iPhone anders realisiert, das wollte ich mit meinem Posting klarstellen.
 
das heisst all diese aufnahmen speichern quasi 2 versionen in einer Datei, sowohl bei Foto als auch bei Video? Heisst das im Umkehrschluss auch, die Dateien verbauchen deswegen die doppelte Menge an Speicher?

Wenn all die Opensource Programme das nicht können heisst das weiter, dass wenn ich bspw. ein Video von einem iPhone mit Handbrake bearbeite Einstellungen wie folgt:

1741081725844.png


Ich massive Info aus dem Video rausprügeln würde? Mangels Zeit und Kenntnissen lasse ich immer den HQ 1080p30 Surround Preset bei Handbrake laufen. Bisher war ich mit dem Ergebnis zufrieden. Ist hier verwendeter Videoencoder für Apple Prozessoren eigentlich der beste oder sollte ich doch etwas Hand anlegen, was auffällt, die CPUs sind sehr schnell auf Volllast und die Lüfter drehen hoch. Achja Handbrake in der aktuellsten Version für mac von der handbrake.fr Seite geladen.
 
weitere Frage: wäre das auch eine Erklärung warum mds_stores am durchdreht, wenn ich hunderte oder tausende solcher "Doppelversion" Videos am mac habe?
 
das heisst all diese aufnahmen speichern quasi 2 versionen in einer Datei, sowohl bei Foto als auch bei Video? Heisst das im Umkehrschluss auch, die Dateien verbauchen deswegen die doppelte Menge an Speicher?

doppelt kann hin kommen, müsste man mal analysieren. Das wird aber wohl auch von der jeweiligen Aufnahmesituation abhängen, wieviele HDR.Infos nötig sind.

Bei JPEG-HDR-Fotos eines iPhones sind die HDR-Infos als EXIF-Tag enthalten. Man könnte als einfach mit exiftool alle EXIF-TAGS entfernen und schon hat man nur das "normale" JPEG

Ob sie bei Videos als separater Stream oder als Metadata vorleigen,weiß ich nicht, da ich keine Videos aufnehmen. Aber eines von beiden muss es ja sein, da nichts anderes eingebettet werden kann. Wenn ich mal Zeit habe, analyiere ich so ein Video

Wenn all die Opensource Programme das nicht können heisst das weiter, dass wenn ich bspw. ein Video von einem iPhone mit Handbrake bearbeite Einstellungen wie folgt:

Ich massive Info aus dem Video rausprügeln würde?

Ja.

VLC als auch Handbrake basieren auf den gleichen libraries / Tools (ffmpeg, libavcodec)


Mangels Zeit und Kenntnissen lasse ich immer den HQ 1080p30 Surround Preset bei Handbrake laufen. Bisher war ich mit dem Ergebnis zufrieden.

Dann ist es doch gut. Wenn du kein HDR aufnimmst, oder die Videos auf nicht Apple-Disolays ansiehst, oder den teils extremen Dynamik-Umfang von HDR nicht magst, dann ist es doch okay für dich.


Ist hier verwendeter Videoencoder für Apple Prozessoren eigentlich der beste oder sollte ich doch etwas Hand anlegen, was auffällt, die CPUs sind sehr schnell auf Volllast und die Lüfter drehen hoch. Achja Handbrake in der aktuellsten Version für mac von der handbrake.fr Seite geladen.

Das ist einen eigenen Trhead wert.

Definiere erst mal was für dich "beste" bedeutet.

Bei Videos ist es für mich das Kriterium Bildqualität, nicht Dateigröße.

Was das Hochdrehen der Lüfter betriffte: nimm einen videotoolbox-Encoder. Der codiert in Hardware. Wenn du einen M-Mac hast und Handbrake selbst auf einem M-Mac kompilierst, dann hast du auch alle Hardware-Encoder-Möglichkeiten, (bisher war das bei auf Intels cross-kompilierten Apps nicht der Fall, ob sich das geändert hat, weiß ich nicht)

Die Bildqualität kriegst du mit entsprechenden Einstellungen visuell genauso gut hin wie mit x264/x265. Die Geschwindigkeit ist aber drastisch höher. Auf meinem M1 Max erhalte ich rund 580 fps wenn ich ein 1080p Video transkodiere.
 
Ok dann werde ich mir das mal genauer ansehen. Bei den verwendetet Macs sind nur M1 Prozessoren vorhanden. Kann aber sein, dass ich demnächst - den Platzgründen geschuldet den imac 24" durch ein 14" macbook mit m4pro ersetze. Ich weiss das ist kein Desktop Replacment nur aufgrund der geänderten Arbeitssituation bei mir muss ich auf dem Platz mind. 2 Geräte unterbringen. Das geht mit Notebooks besser als mit einem Notebook und einen imac.
 
Die 32 Bit dienen nur dem Zweck, die Anteile im HDR-Bild darzustellen, die der Monitor eben nicht natürlich darstellen kann - was man nicht sieht, kann man auch nicht nutzen - soweit klar, aber der Zweck der Bearbeitung in 32 Bit ist es ja eben, die HDR-Darstellung so zu verschieben, dass sich die "überbelichteten" und "unterbelichteten" Bereiche trotzdem darstellen lassen, um sie zu bearbeiten und zu nutzen, sodass sie im exportierten Bild doch sichtbar sind. (Ritson demonstriert dies anhand einer Aufnahme in Tokio - sehr beeindruckend, obwohl die 32 Bit im Endergebnis gar nicht genutzt werden / können)


So schlecht finde ich das RAW Modul von Affinity übrigens gar nicht - obwohl es da, zugegebenermaßen, komfortablere Lösungen gibt. Da ich die Option aber auch nicht so häufig benötige, reicht es.

Ja, aber das kannst du auch mit 16bit an einem 10bit Monitor, dann hast du immer noch 1.024 sichtbare Abstufungen pro Kanal. Und wie @lisanet schon sagte, bei einem 8bit "HDR" nutzen die 32bit nichts. 32bit würde man erst nutzen können, wenn die Dynamik soweit auseinandergeht. Dazu bräuchte man mehrere Blenden bei maximalem Dynamikumfang der Kamera.

Was das RAW-Modul angeht war ich zumindest bei meinen Kameras überrascht, ich hätte die Kameras an den Bildern minderwertiger eingestuft, etwas Abhilfe schaffte die Deaktivierung der Belichtungskorrektur. Aber ein ähnliches Bild ergab sich in Lr und Vorschau.
 
In den Einstellungen vom iPhone, Kamera / Video aufnehmen / runter scrollen / "HDR-Video" deaktivieren.
Jetzt passt es bei allen Applikationen!
So einfach ist es manchmal...
also wenn Deine Anforderung nur ist, mit dem jetzigen Setup gucken zu können, dann prima, freut mich das.

Die sinnvollere Variante wäre, ein HDR-taugliches Display zu verwenden. Es braucht nicht viel, nicht einmal das Panel muss echt HDR können, sondern nur die Kette HDR korrekt verarbeiten. Im Idealfall kann man die Bildqualität erheblich steigern. Ein einigermaßen taugliches Display (minus der nötigen Lumen-Zahl des Panels) bekommt man bereits ab 350 Euro. Wenn man ein iPad Pro hat (ab M1), kann man das auch zum Proofing benutzen.
 
Zurück
Oben Unten