16bit Tiff vs. RAW (oder: Photoshop Masken in Aperture?)

Kümmelkorn

Kümmelkorn

Aktives Mitglied
Thread Starter
Dabei seit
06.10.2008
Beiträge
1.941
Reaktionspunkte
127
Hallöle,

ich bin mit meinem Workflow zum Bearbeiten von Bildern noch nicht so ganz zufrieden: Ich schwanke zwischen Aperture und Photoshop!

Normalerweise bietet Aperture genau das, was ich zum fotografieren haben will: Eine Bildverwaltung und einen native, verlustfreie Bearbeitung von RAW Daten.
Das ganze hat aber nun einen Haken: Es gibt doch recht häufig mal Bilder, wo ich nur bestimmte Bereiche bearbeiten will, z.B. ein Foto mit zwei Personen und ich möchte nur der linken etwas mehr Farbe einhauchen. Soweit ich informiert bin, ist dies mit Aperture unmöglich!? Masken/Selektionen gehören in die Bildbearbeitung und werden von Aperture nicht unterstützt, auch nicht mit einem bezahlbaren Plugin, richtig?

Bleibt mir also leider nur noch Photoshop ohne nativen RAW Support. Ich muss immer die Nase rümpfen, wenn ich ein Bild ins 16bit Tiff konvertieren muss - ist das nicht eine Einschränkung der Bearbeitungsmöglichkeiten? Ist mit 16bit Tiffs alles möglich, was mit RAWs auch möglich ist? Wohl kaum, oder warum fotografiert man sonst in RAW und nicht in 16bit Tiff?
Aber ich weiß es auch nicht, es ist halt nur so ein mulmiges Gefühl.. Ist da was dran oder kann man Bilder bedenkenlos in 16bit Tiffs konvertieren, ohne jegliche Einschränkung hinnehmen zu müssen?

Am tollsten wäre ja ein Quickmask Modus in Aperture o.ä., aber ich fürchte, das gehört leider ins Gebiet der Bildbearbeitung. :(

Wäre über eine Antwort dankbar. :)

Gruß, Micha
 
...kann man Bilder bedenkenlos in 16bit Tiffs konvertieren, ohne jegliche Einschränkung hinnehmen zu müssen?

Ja. Musst Du sogar, wenn Du sie in welcher Form auch immer weiterverarbeiten möchtest. RAWs haben normalerweise eine mögliche Farbtiefe von 48bit. Das hat aber für Dich nur insofern den Vorteil, daß die Einstellmöglichkeiten vor allem in den Lichtern und Tiefen hier sehr fein sind. Visuell unterscheiden kann man ein Bild mit 48bit Farbtiefe von einem Bild mit 16bit nicht, sogar einen Unterschied zu einem 8bit Bild wirst Du nicht feststellen können.

Gruß
i-lancer

In PS kannst Du RAWs als SmartObjekt platzieren und verlierst somit nicht die Möglichkeit im Falle eines Falles den dynamischeren Farbumfang bei Bedarf zu nutzen.
 
Oder einfach Lightroom benutzen und in den Genuss von Selektiven Anpassungen kommen. :)
 
Masken/Selektionen gehören in die Bildbearbeitung und werden von Aperture nicht unterstützt, auch nicht mit einem bezahlbaren Plugin, richtig?
Das stimmt so nicht. Selektives Bearbeiten geht prinzipiell mit Plug-In's, dann aber nicht mehr auf Ebene RAW sondern mit dem TIFF. Das kannst du ja schon mit dem mitgelieferten "Dodge+Burn"-Plugin.

Da Lightroom dies in der aktuellen Version bietet kann man davon ausgehen, dass Apple bei der nächsten Aperture-Version nachlegen wird. Denn letzlich sind ja die Retusche-Funktionen in Aperture auch nichts anderes als selektive Masken auf dem RAW, insofern spricht nichts dagegen das noch auszuweiten.
 
Ja. Musst Du sogar, wenn Du sie in welcher Form auch immer weiterverarbeiten möchtest. RAWs haben normalerweise eine mögliche Farbtiefe von 48bit.

Das ist falsch, denn nur ganz ganz wenige Digitalkameras haben einen 16bit analog/digital-wandler ..... die meisten (auch die ganzen Profi-DSLRs) wandeln mit 14bit, die günstigeren nur mit 12bit ...... somit reden wir hier von 42bit, bzw. 36bit bei den günstigen (für alle drei Kanäle zusammen).
16bit RAWs kenn ich nur von der Leica M8 und von vielen Digitalen im Mittelformat.

Ein Tiff dagegen, mit 16bit (wohlgemerkt, das ist pro kanal!), hat also auf alle kanäle bezogen 48bit.

Das ganze hat aber nun einen Haken: Es gibt doch recht häufig mal Bilder, wo ich nur bestimmte Bereiche bearbeiten will, z.B. ein Foto mit zwei Personen und ich möchte nur der linken etwas mehr Farbe einhauchen. Soweit ich informiert bin, ist dies mit Aperture unmöglich!? Masken/Selektionen gehören in die Bildbearbeitung und werden von Aperture nicht unterstützt, auch nicht mit einem bezahlbaren Plugin, richtig?

....schau dir mal das Viveza von NIK an, das ist ein Plugin für PS, LR und Aperture.

und ansonsten kann ich nur sagen, das wer sich mal mit dem Lab-Farbraum beschäftigt hat, möchte gar keine RAWs mehr bearbeiten ;)
 
Zuletzt bearbeitet von einem Moderator:
Das ist falsch, denn nur ganz ganz wenige Digitalkameras haben einen 16bit analog/digital-wandler ..... die meisten (auch die ganzen Profi-DSLRs) wandeln mit 14bit, die günstigeren nur mit 12bit ...... somit reden wir hier von 42bit, bzw. 36bit bei den günstigen (für alle drei Kanäle zusammen).
16bit RAWs kenn ich nur von der Leica M8 und von vielen Digitalen im Mittelformat.

Ein Tiff dagegen, mit 16bit (wohlgemerkt, das ist pro kanal!), hat also auf alle kanäle bezogen 48bit.

Und deswegen: haben "normalerweise" und einen "möglichen".
Jetzt stellt sich natürlich die Frage wo "das Tiff" die 16bit herbekommen soll, wenn die Kamera nur einen 14bit bzw. 12bit Wandler hat.

Gruß
i-lancer
 
Jetzt stellt sich natürlich die Frage wo "das Tiff" die 16bit herbekommen soll, wenn die Kamera nur einen 14bit bzw. 12bit Wandler hat.

..."daher", wo eine 6 megapix Bild seine Informationen herbekommt, wenn du es auf 12 megapix "aufbläst" ;)

...man möge sich, bevor man sich solche eine Frage stellt, erst einmal klar machen, was denn "16bit" überhaupt heisst.

...16bit (pro kanal) heisst doch lediglich, das sich der farbkanal mit 65.536 Grauwerte gliedert, im Unterschied zu 14bit, wo es 16.384 Werte sind ....... das Min. und das Max. ist bei beiden das selbe ... lediglich die Auflösung der in Grauwerten für jeden Farbkanal ist bei höherer bit-zahl größer und lässt damit feinere Abstufungen zu ...... vergleichbar mit einem Zahnrad mit feineren Zähnen.
 
Was hat RAW mit LAB zu tun?

Der Vorteil von RAW ist doch, dass die Bilder weder komprimiert noch
optimiert/verändert sind.
 
Ich bitte auch zu bedenken, daß jede Bildbearbeitung irgendwann einem Ausgabemedium übergeben wird, wo bei 8 bit idR Ende ist. Auch wenn Highendmonitore mehr als 256 Abstufungen je Farbkanal darstellen können, ist es doch fraglich, wer das sehen kann. Dazu gehören ein geschultes Auge, ein genormter Arbeitsplatz und konstante Bedingungen. Ich glaube, meist wird zuviel in Reserven investiert, die nicht oder kaum abgerufen werden können.
 
Ich bitte auch zu bedenken, daß jede Bildbearbeitung irgendwann einem Ausgabemedium übergeben wird, wo bei 8 bit idR Ende ist. Auch wenn Highendmonitore mehr als 256 Abstufungen je Farbkanal darstellen können, ist es doch fraglich, wer das sehen kann. Dazu gehören ein geschultes Auge, ein genormter Arbeitsplatz und konstante Bedingungen. Ich glaube, meist wird zuviel in Reserven investiert, die nicht oder kaum abgerufen werden können.

...korrekt, aber wie schon geschrieben, umfasst ein Tiff in 16Bit grundsätzlich nur dahingehend mehr Information als ein 8Bit, das jeder Farbkanal feiner abgestuft vorliegt. Zur weitergabe der daten nach der Bearbeitung spricht ja nichts gegen 8Bit.
 
Ich bitte auch zu bedenken, daß jede Bildbearbeitung irgendwann einem Ausgabemedium übergeben wird, wo bei 8 bit idR Ende ist. Auch wenn Highendmonitore mehr als 256 Abstufungen je Farbkanal darstellen können, ist es doch fraglich, wer das sehen kann. Dazu gehören ein geschultes Auge, ein genormter Arbeitsplatz und konstante Bedingungen. Ich glaube, meist wird zuviel in Reserven investiert, die nicht oder kaum abgerufen werden können.

Das ist dann richtig wenn an den Bildern nicht/kaum gearbeitet wird! Wenn Du aber Kontrast, Sättigung, Tiefen/Lichter anheben/absenken und Ähnliches nutzen willst dann macht es sogar erheblichen Sinn diese Reserven zu haben, das man das Ganze am Ende mit einem eh sehr limitierten Auge betrachtet steht außer Frage! Ob man aber die ganze Bildbearbeitung mit nur 8Bit oder eben maximalen 16Bit macht sieht man schon!


Das mit dem Lab-Farbraum verstehe ich auch nicht so ganz, man kann doch jedes Bild dorthin konvertieren (und tut das z.B. zum Entrauschen ja auch)!
 
Das mit dem Lab-Farbraum verstehe ich auch nicht so ganz, man kann doch jedes Bild dorthin konvertieren (und tut das z.B. zum Entrauschen ja auch)!
Da man schon seit einigen Photoshop-Versionen in RGB den Weichzeichner auf den Modus Farbe begrenzen kann, genau wie Unscharf maskieren auf die Luminanz, lohnt sich eine zusätzliche Umwandlung nach LAB IMHO nicht mehr. Auch sämtliche Einstellungsebenen lassen sich auf Luminanz, Farbe oder andere Modi einschränken. Intern rechnet PS sowieso in LAB (oder war es HSB?).
 
Intern rechnet PS sowieso in LAB (oder war es HSB?).
Weder noch. RGB wird RGB berechnet, CMYK wird als CMYK berechnet, Graustufen als Graustufen nur Bitmaps als 8bit RGB, deswegen tut sich bei den Teilen auch so wenig.
 
Ich bitte darum, die LAB-Diskussion in entsprechendem Thread weiterzuführen :)
Ich hatte an in2itiv eine Frage gestellt, die bisher noch nicht direkt beantwortet wurde. Auch geht es in dem verlinkten Thread nicht direkt um das gleiche Thema. Da ich in diesem Forum noch relativ neu bin hoffe ich, dass es erlaubt ist, die Diskussion hier dennoch weiterzuführen, da sonst m.E. der Zusammenhang verloren ginge. :)

Für mich stellt sich die Frage, weshalb in2itiv meint, dass man auf Raw verzichten kann, wenn man sich mit dem Lab-Farbraum beschäftigt hat. Nun hab ich mich ja auch schon mit dem Lab-Farbraum beschäftigt, vielleicht nicht so intensiv wie in2itiv, kann aber nicht direkt erkennen, wie der Lab-Farbraum Rawdateien verzichtbar macht. In der bisherigen Diskussion ging es hauptsächlich um die höhere Farbtiefe und dadurch feinere Abstufungen, das ist ja grundsätzlich auch im Lab-Farbraum möglich. Was aber nicht angesprochen wurde ist, dass die Rawdatei noch nicht Gammakorrigiert ist, wodurch erst zuverlässig ein nachträglicher Weißabgleich möglich wird und das relativ einfach.

LG Martin
 
kann aber nicht direkt erkennen, wie der Lab-Farbraum Rawdateien verzichtbar macht.

Ich auch nicht. Wenn ein Sensor entwickelt wird, der bzw. dessen aufgedamfte Filter nicht mehr für Wellenlängenbereiche sensibilisiert sind, sonder für eine a und eine b Achse, wobei ich mir gerade vorstelle wie negative Photonenzahlen für ein blau zustande kommen sollen (nur spass) ;-) ), dann könnte ein Lab RAW entstehen.


In der bisherigen Diskussion ging es hauptsächlich um die höhere Farbtiefe und dadurch feinere Abstufungen, das ist ja grundsätzlich auch im Lab-Farbraum möglich.
Nicht nur möglich sondern auch nötig, da eben 8 Bit bei Lab definitiv zu wenig ist, da der Wertebereich nur etwa zu 25-30% gefüllt ist.

Was aber nicht angesprochen wurde ist, dass die Rawdatei noch nicht Gammakorrigiert ist, wodurch erst zuverlässig ein nachträglicher Weißabgleich möglich wird und das relativ einfach.
SIe ist im Prinzip auch noch nicht farbdefiniert, wenn sie denn wirkliche Sensorinformationen enthält. In dem Fall sind sich ja sämtliche Hersteller einig, dass sie diese 'Profile' nicht (mehr)rausrücken.
 
Nicht nur möglich sondern auch nötig, da eben 8 Bit bei Lab definitiv zu wenig ist, da der Wertebereich nur etwa zu 25-30% gefüllt ist.

Ich kenn mich ja nun nicht so gut aus (deshalb habe ich ja beide Themen angesprochen), aber wie um alles in der Welt kommst du nun wieder auf 8bit? Es ging im gesamten Thread um RAW vs. 16bit TIFF, d.h. 16bit pro Kanal. Da andere mich richtigerweise wieder darauf gebracht haben, dass RAW "nur" 14bit hat, müsste - so dumm es klingt - TIFF theoretisch „besser“ sein. Das im RAW noch gar keine Farbinformationen gespeichert sind (bzw. nur indirekt durch drei Schwarz-Weiß-Kanäle), ist mir schon klar - aber ich grübel ja immernoch darüber, was TIFF nun schlechter machen soll als RAW: Wenn TIFF mehr Farben speichert als man überhaupt darstellen/sehen kann, ist ein Farbverlust bei der Farbkorrektur nicht mehr so tragisch. (das ist ja der Vorteil einer 16bit Bearbeitung)
Demzufolge wäre die Frage nach RAW vs. TIFF egal, weil beide Formate volle Nachbearbeitung zulassen. Hab ich das soweit jetzt richtig verstanden?

Hat zwar jetzt nix mehr mit Lab zu tun gehabt, aber 8 bit hat mit Lab genauso wenig zu tun!?

wegus schrieb:
Das mit dem Lab-Farbraum verstehe ich auch nicht so ganz, man kann doch jedes Bild dorthin konvertieren (und tut das z.B. zum Entrauschen ja auch)!
Interessant, wie sieht denn dein Workflow aus beim Entrauschen? Ich hab da ja leider noch gar keinen guten Weg gefunden :(
 
Ich hatte an in2itiv eine Frage gestellt, die bisher noch nicht direkt beantwortet wurde.

Für mich stellt sich die Frage, weshalb in2itiv meint, dass man auf Raw verzichten kann, wenn man sich mit dem Lab-Farbraum beschäftigt hat. Nun hab ich mich ja auch schon mit dem Lab-Farbraum beschäftigt, vielleicht nicht so intensiv wie in2itiv, kann aber nicht direkt erkennen, wie der Lab-Farbraum Rawdateien verzichtbar macht. In der bisherigen Diskussion ging es hauptsächlich um die höhere Farbtiefe und dadurch feinere Abstufungen, das ist ja grundsätzlich auch im Lab-Farbraum möglich. Was aber nicht angesprochen wurde ist, dass die Rawdatei noch nicht Gammakorrigiert ist, wodurch erst zuverlässig ein nachträglicher Weißabgleich möglich wird und das relativ einfach.

Hallo Martin,

mir war deine Rückfrage etwas knapp, deshalb war ich noch nicht drauf eingegangen.
...ich halte RAW nicht für "überflüssig", ist es doch die beste methode hochwertige daten aus der Kamera zu bekommen. Nur mache ich sehr wenige Korrekturen an den RAW-daten, bevor ich sie in 16bit Tiff konvertiere. Ich behandle ein RAW eher so wie einen Roh-scan, bei dem ich genau wie beim RAW, möglichst viel an Information mit in das Tiff übernehme und dann dort die eigentlichen Korrekturen. Am RAW mache ich vor dem konvertieren lediglich einen Weissabgleich und dreh ein bischen an Kontrast und Dynamik sowie an der Schärfe (wobei das eigentliche Schärfen später, je nach Verwendungszweck, am Tiff gemacht wird).

...ob man danach in RGB oder Lab die Korrekturen hinsichtlich Farbe, Sättigung, usw. macht, ist Gewohnheit und Ansichtssache. Ich hatte in dem Lab-thread schon geschrieben, das ich Lab für das schlüssigere Konzept halte um visuell Korrekturen zu machen. In jedem Fall ist es für mich um ein vielfaches schneller.

Gruss
Stefan
 
Wenn TIFF mehr Farben speichert als man überhaupt darstellen/sehen kann, ist ein Farbverlust bei der Farbkorrektur nicht mehr so tragisch. (das ist ja der Vorteil einer 16bit Bearbeitung)

Es wäre eben nur schade, wenn Du im 16bit-Modus Dinge korrigierst, die im 8- oder weniger -bit-Modus unangenehm auffallen. Ich denke da an fehlerhaftes Antialiasing an Kanten, Verläufe, Schatten oder Transparenzen. Auf jeden Fall die Softproofoption für das gewählte Ausgabegerät im Auge behalten.
 
Zurück
Oben Unten