Frage zu Raw Konvertern

ich bin semi-profi fotograf und verwende ausschließlich photoshop cs2 zur bearbeitung ... kann man alles machen und mit stapelverarbeitung und vorherigem copy der raw einstellunegn auf die anderen bilder kann man ganz leicht tiff mit 14 bit abspeichern ...

das einige raw converter den ich verwende ist der adobe eigene DNG (kostelos ) konverter zur archivierung der daten ...
 
nelno schrieb:
Die Kamera liefert nicht nur die Farbinformation, sondern sozusagen auch den Farbort. Der Sensor unterscheidet ja nach RGB, hat also einzelne "Zellen" für die jeweiligen Farbkomponenten. Diese liegen bei den üblichen Sensoren (Ausnahme Sigma SD9 oder so) nebeneinander, nicht hintereinander. 1xR, 2xG und 1xB bilden einen Block.
Würdest Du Einfach nur den RGB Wert aus den einzelnen Zellen bilden und den Block als Pixel lesen, hättest Du eine wesentlich geringere Auflösung. Tatsächlich wird eine wesentlich höhere Auflösung aus den vom Chip gewonnenen Daten interpoliert, dabei wird die "Zelle", also der Ort der gemessenen Farbkomponente hinzu gezogen.
Verschieden komplizierte Algorithmen liefern unterschiedlich gute Ergebnisse und geschwindigkeiten. Die Berechnung an sich kannst Du durch den Bildprozessor der Kamera vornehmen lassen, oder du schreibst RAWs und überlässt die Arbeit deinem Konverter. Da hast Du dann etwas mehr Rechenpower und Beeinflussungsmöglichkeiten als an der Kamera. Nichtsdestotrotz dauert es dabei ggf. etwas länger, da die Konvertierung nicht per Hardware, sondern per Software vorgenommen wird. Dafür bist Du aber flexibler.
Wenn das Bild fertig konvertiert wurde, hast Du vielleicht noch 16 Bit Farbe pro Farbkanal, die Information darüber, wo diese Farbwerte in Relation zum daraus interpolierten Pixel gemessen wurden, sind verloren. Daher halte ich die Frage, was man lieber im Konverter oder im Bildbearbeitungsprogramm machen möchte nicht für philosophisch.
Aus Qualitätsgründen sollte man alle Einstellungen, die bei der Interpretation der Rohdaten zur Konvertierung heran gezogen werden können auch tatsächlich im Konverter vornehmen. Alles, bei dem das Programm nicht mehr von den Rohdaten profitiert, kann auch später getan werden.
Streiten muss man sich freilich trotzdem nicht darüber ;-)


Dank Dir für die ausführliche Erläuterung.
Ich hatte es immer folgendermaßen verstanden:
Der Sensor liefert erstmal nur eine reine (analoge) Helligkeitsinformation.
Die Kamera bzw. der Bildprozessor "weis" aber welche Helligkeitsinformation welchen Farbpixel zuzuordnen ist.
Dies ist quasi der Grunddatenbestand.
Das müßten demnach die Raw Daten sein.
Darauf bauen alle späteren Berechnungen auf.

Irgendwann muß aber eine Quantisierung stattfinden, die die maximale Zahl der Helligkeitsstufen/Farbabstufungen bestimmt. Das wären dann unsere 16 Bit.
Die interessante Frage ist, wann das passiert.

Vor oder erst nach der Farbinterpolation?
Schon in der Kamera (auch bei Raw) oder erst im Konverter?

Ich hatte vermutet, das es bereits in der Kamera mit den Helligkeitsinformationen gemacht wird. In diesem Fall hätte der Konverter "nur" 16 Bit zu Verfügung.
Wäre ja kein Drama, denn es übersteigt ohnehin die Fähigkeiten sämtlicher späteren Ausgabegeräte, incl. Monitor. Den muß man ja nun mal zur Beurteilung heranziehen.

Mit dem "philosophisch" ist es schon richtig.
Eine Fraktion will möglichst alles mit dem Konverter machen, die andere nur das Nötigste.
Beide Wege haben Vor- und Nachteile.

Alles andere ist mir schon klar.
 
Zurück
Oben Unten