Manueller Weissabgleich, wer nutzt ihn?

Schattenmantel schrieb:
Bin schonmal gespannt drauf!

Ich jetzt aber auch. Mach mal, ich hab' meine Kamera leider im Moment nicht in Reichweite.

-- Markus
 
@freedolin
Naja ich werd das auch erst irgendwann heute Abend machen können..
Hab meine Kam auf Arbeit auch ned dabei.. ;)
 
Schattenmantel schrieb:
Ich werd mal ausprobieren ob sich bei der Belichtungs etwas ändert wenn ich die Farbtemperatur in der Kamera verstelle.. ;)
Bin schonmal gespannt drauf!


Wenn Du unter Kunstlicht mit dem Kunstlichtabgleich aufnimmst, bekommst Du andere Tonwert- und Dynamikwerte, als wenn Du mit dem Daylightabgleich aufnimmst. Ob die Zeit/Blendenkombination (Lichtwerte) eine andere ist, weiß ich nicht.
 
rpoussin schrieb:

Ok, siehe meine Einschränkung weiter oben. Die Nikon-Belichtungsmessung (3D Matrix Messung) ist meines Wissens nicht farbenblind, folglich könnte hier der Weissabgleich durchaus Einfluss auf die Messung haben.

-- Markus
 
rpoussin schrieb:
Wenn Du unter Kunstlicht mit dem Kunstlichtabgleich aufnimmst, bekommst Du andere Tonwert- und Dynamikwerte, als wenn Du mit dem Daylightabgleich aufnimmst.

Das ist ja auch klar, die Farbwerte sind ganz andere. Die Frage ist: kommt das gleiche Histogramm heraus, wenn ich die mit Daylightabgleich aufgenommene Aufnahme nachträglich im Raw-Konverter auf Kunstlicht umstelle.

Meine Erwartung wäre, dass die Bilder dann übereinstimmen.

rpoussin schrieb:
Ob die Zeit/Blendenkombination (Lichtwerte) eine andere ist, weiß ich nicht.

Wenn sie sich ändert, wäre das zumindest schonmal ein Indiz, dass der Abgleich die Messung beeinflusst.

Ich probier' das heute abend auch mal aus.

-- Markus
 
Wäre natürlich ganz gut, zu diesem Thema mal einen echten Fachmann zu hören.
Ich bin leider selbst keiner.

Meiner eher laienhaften Vorstellung nach sorgt der manuelle Weissabgleich dafür, das die Farbbalance grundsätzlich verändert wird.

Die interessante Frage ist natürlich, wie das geschieht.

Wenn es so wäre, das die Aufzeichnung/Verstärkung der einzelnen Farbkanäle von vornherein verändert würde, hätte man auf jeden Fall eine bessere Ausnutzung der Dynamik, weil dann das Clipping verhindert bzw. gemildert würde.

Die Belichtungsmessung ist in der Regel farbenblind (Ausnahme wohl Nikon).
Deshalb gibts ja oft Probleme, wenn eine Farbe stark in einem Bild dominiert, wie z.B. bei Kunstlicht, Abendsonne etc.

Korrigiere ich jetzt NUR die Belichtung, wird das gesamte Farbspektrum im Histogramm nach links oder rechts verschoben. Die z.B. im Helligkeitsbereich übersteuerten Farben kommen dann in den akzeptablen Bereich, ABER die anderen Farben können dann schon wieder in den untersteuerten Bereich kommen und absaufen.

Alles was im über- oder untersteuerten Bereichs liegt, hat aber praktisch keine Zeichnung mehr. Raw kann da ja auch nichts mehr herbeizaubern. Was weg ist, ist weg.
Bei Digital-Kameras ist das Clipping ja abrupter als beim Film.

Beim manuellen Weissabgleich verschiebe ich aus meiner Sicht dagegen nur einen einzelnen Farbereich in den akzeptablen bzw. linearen Bereich.
 
Zuletzt bearbeitet:
freedolin schrieb:
Ok, siehe meine Einschränkung weiter oben. Die Nikon-Belichtungsmessung (3D Matrix Messung) ist meines Wissens nicht farbenblind, folglich könnte hier der Weissabgleich durchaus Einfluss auf die Messung haben.

-- Markus


Die hatte ich gelesen, kann mir aber nicht vorstellen, daß sie auf andere Systeme keinen Einfluß hat.

@ALL: Wie auch immer, war sehr nett, mit Euch zu diskutieren. Und weg.
 
Bramix schrieb:
Alles was jenseits des über- oder untersteuerten Bereichs liegt, hat ja praktisch keine Zeichnung mehr. Raw kann da ja auch nichts mehr herbeizaubern. Was weg ist, ist weg.

Das ist richtig. Aber der Grenzbereich ist doch relativ gross. RAW kann dann punkten, wenn der entsprechende Bereich knapp nicht übersteuert ist. Da kann man dann aus einem Bildteil, der eigentlich hoffnunflos überbelichtet aussieht, oft noch eine Menge rausholen (Himmel ist oft ein solcher Bildteil). Hatte gerade gestern so ein Beispiel, ist zwar ein Familienfoto, aber ich kann das gern heute abend mal posten (auch wenn wir damit jetzt arg weit vom Topic wegkommen).

-- Markus
 
Bramix schrieb:
Wäre natürlich ganz gut, zu diesem Thema mal einen echten Fachmann zu hören. Die Belichtungsmessung ist in der Regel farbenblind. Deshalb gibts ja oft Probleme, wenn eine Farbe stark in einem Bild dominiert, wie z.B. bei Kunstlicht, Abendsonne etc.

Korrigiere ich jetzt die Belichtung, wird das gesamte Farbspektrum im Histogramm nach links oder rechts verschoben. Die z.B. im Helligkeitsbereich übersteuerten Farben kommen dann in den akzeptablen Bereich, ABER die anderen Farben können dann schon wieder in den untersteuerten Bereich kommen und absaufen.

Alles was jenseits des über- oder untersteuerten Bereichs liegt, hat ja praktisch keine Zeichnung mehr. Raw kann da ja auch nichts mehr herbeizaubern. Was weg ist, ist weg.
Bei Digital-Kameras ist das Clipping ja abrupter als beim Film.


Stativ, Belichtungsreihe, Photoshop, HDR-Image. Geht aber wohl nur in ausgewählten Ausnahmefällen :))
 
rpoussin schrieb:
Stativ, Belichtungsreihe, Photoshop, HDR-Image. Geht aber wohl nur in ausgewählten Ausnahmefällen :))


Bist ja immer noch da?
 
freedolin schrieb:
Das ist richtig. Aber der Grenzbereich ist doch relativ gross. RAW kann dann punkten, wenn der entsprechende Bereich knapp nicht übersteuert ist. Da kann man dann aus einem Bildteil, der eigentlich hoffnunflos überbelichtet aussieht, oft noch eine Menge rausholen (Himmel ist oft ein solcher Bildteil). Hatte gerade gestern so ein Beispiel, ist zwar ein Familienfoto, aber ich kann das gern heute abend mal posten (auch wenn wir damit jetzt arg weit vom Topic wegkommen).

-- Markus


Nö, mach ruhig mal.

In engeren Grenzen natürlich geht das übrigens auch mit JPEG.

Ich hab nur die Erfahrung gemacht, das ich nachträglich oft nur schwer die Farben so hinbekomme, wie ich sie mit einem vorweggenommenen Weissabgleich erhalte.

In der Erinnerung "speichert" man die Farben anders als sie in der Realität waren.
Ist ein bekanntes, witziges Phänomen.
 
Bramix schrieb:
In der Erinnerung "speichert" man die Farben anders als sie in der Realität waren.
Ist ein bekanntes, witziges Phänomen.

Allerdings.

Mir fällt in dem Zusammenhang eine Kleinigkeit ein: als ich noch im Kindesalter war und im Auto mir die Rückbank mit meinem kleinen Bruder teilen musste, hatten wir immer einen Heidenspass bei Fahrten in der Dunkelheit. Denn an Kreuzungen hingen damals regelmässig nicht weisse Strassenlaternen, sondern orangefarbene. Das gab im Auto dann immer eine seltsame Hautfarbe und einen reichlich ungesunden Teint. Im damaligen Alter ein Riesenspass.

Heute fällt mir das nicht mehr auf. Wenn jemand in buntem Licht steht, rechnet das Hirn aus der Erfahrung die Farbe raus, weil es weiss, wie Haut normalerweise aussieht. Ich muss mich dann schon zwingen, die Farbe sehen zu wollen.

Wo wir aber gerade beim Thema Wahrnehmung sind: man kennt ja diese vielfältigen Zeichnungen zum Thema trainierte Wahrnehmung, scheinbar unterschiedlich lange oder gebogene Linien, die in wahrheit aber exakt gleich lang und gerade sind, oder scheinbar unterschiedlich helle Farbklekse, die aber doch die gleiche Farbe haben.

Gerade zu letzterem habe ich neulich ein Beispiel gefunden, das ich schlicht genial finde:

Link hier.

Man ahnt es schon: Feld A und B haben exakt die gleiche Farbe. Ich hab' das nicht wahrhaben wollen und per Photoshop beide Felder verglichen. Stimmt tatsächlich.

-- Markus
 
freedolin schrieb:
Allerdings.

Mir fällt in dem Zusammenhang eine Kleinigkeit ein: als ich noch im Kindesalter war und im Auto mir die Rückbank mit meinem kleinen Bruder teilen musste, hatten wir immer einen Heidenspass bei Fahrten in der Dunkelheit. Denn an Kreuzungen hingen damals regelmässig nicht weisse Strassenlaternen, sondern orangefarbene. Das gab im Auto dann immer eine seltsame Hautfarbe und einen reichlich ungesunden Teint. Im damaligen Alter ein Riesenspass.

Heute fällt mir das nicht mehr auf. Wenn jemand in buntem Licht steht, rechnet das Hirn aus der Erfahrung die Farbe raus, weil es weiss, wie Haut normalerweise aussieht. Ich muss mich dann schon zwingen, die Farbe sehen zu wollen.

Wo wir aber gerade beim Thema Wahrnehmung sind: man kennt ja diese vielfältigen Zeichnungen zum Thema trainierte Wahrnehmung, scheinbar unterschiedlich lange oder gebogene Linien, die in wahrheit aber exakt gleich lang und gerade sind, oder scheinbar unterschiedlich helle Farbklekse, die aber doch die gleiche Farbe haben.

Gerade zu letzterem habe ich neulich ein Beispiel gefunden, das ich schlicht genial finde:

Link hier.

Man ahnt es schon: Feld A und B haben exakt die gleiche Farbe. Ich hab' das nicht wahrhaben wollen und per Photoshop beide Felder verglichen. Stimmt tatsächlich.

-- Markus



Sehr schönes Beispiel für unsere in vielen Bereichen subjektive Wahrnehmung.

Nebenbei gesagt, es gibt ein tolles Buch von Paul Watzlawick:

"Wie wirklich ist die Wirklichkeit" Piper Taschenbuch


Im Zusammenhang mit dem Thema und Dynamikumfang vielleicht ganz interessant:

http://digicam-experts.de/forum/viewtopic.php?id=24

http://digicam-experts.de/forum/viewtopic.php?id=21
 
Freedolin hat vollkommen Recht. Der Weißabgleich in der Kamera ist im RAW-Modus unnötig. Dagegen im TIFF- oder JPG-Modus ist er wichtig.

Ein Sensor ist ein ganzes Stück vor dem ein Farbfilter angeordnet ist. Wenn man den Farbfilter weglassen würde, hätte man einen sehr hochauflösenden Schwarzweiß-Sensor. Man kann einem solchen Sensor nur ingesamt eine Vorspannung mitgeben und nicht einzelnen Bildpunkten. Theoretisch wäre dies sicherlich zwar möglich, aber praktisch bei über 10 Millionen Bildpunkten nicht durchführbar. Daher wird nur der ISO-Wert in einen unterschiedlich starke Vor-/Ansteuerspannung für den Sensor als Gesamteinheit umgesetzt.
Wenn dann das Bild gemacht wurde, wird es als Gesamtes ausgelesen und erst der Bildprozessor weiß welcher Bildpunkt welche Farbe rrepräsentiert. Dies wird dann entweder entsprechend formatiert und als RAW-Bild auf der Speicherkarte abgelegt oder anhand der eingestellten Parameter wird das Bild neubrechnet, "entwickelt". Kurz gesagt, es wird das gemacht was hier beschrieben wird: http://www.dxo.com/de/photo/dxo_optics_pro/overview/powerful_denoising/dxo_raw_engine

DxO hat zwar auch ein Lösung, um die Bildverarbeitung in der Kamera zu optimieren, aber selbst die faßt den eigentlichen Sensor nicht an, siehe hier: http://www.dxo.com/de/business/cameraphones/do

Daher: WB bei RAW ist unnötig. Alles andere ist Einbildung.

Anders wäre es, wenn man 3 Sensoren hätte wo jeder geziehlt nur eine Farbe "zu Gesicht" bekommt. Dann könnten die Daten vom Weißabgleich für die Ansteuerung der Sensoren genutzt werden. Aber solange nur ein Sensor da ist, geht es nicht.

Pingu
 
Benutzt nicht die neue Sigma Kamera so einen Aufbau von mehreren Sensoren??
 
Schattenmantel schrieb:
Benutzt nicht die neue Sigma Kamera so einen Aufbau von mehreren Sensoren??

Ja, in 3 Lagen: http://www.dpreview.com/news/0609/06092605sigmasd14.asp

The Foveon X3® direct image sensor featured in the Sigma SD14 digital SLR can capture all primary RGB colours at each and every pixel arranged in three layers, insuring the capture of full and complete colour. Using three silicon-embedded layers of photo detectors, stacked to take advantage of silicon’s ability to absorb red, green, and blue light at different respective depths, it efficiently reproduces colour more accurately and offers sharper resolution, pixel for pixel, than any conventional image sensor.
 
Pingu schrieb:
Freedolin hat vollkommen Recht. Der Weißabgleich in der Kamera ist im RAW-Modus unnötig. Dagegen im TIFF- oder JPG-Modus ist er wichtig.

Ein Sensor ist ein ganzes Stück vor dem ein Farbfilter angeordnet ist. Wenn man den Farbfilter weglassen würde, hätte man einen sehr hochauflösenden Schwarzweiß-Sensor. Man kann einem solchen Sensor nur ingesamt eine Vorspannung mitgeben und nicht einzelnen Bildpunkten. Theoretisch wäre dies sicherlich zwar möglich, aber praktisch bei über 10 Millionen Bildpunkten nicht durchführbar. Daher wird nur der ISO-Wert in einen unterschiedlich starke Vor-/Ansteuerspannung für den Sensor als Gesamteinheit umgesetzt.
Wenn dann das Bild gemacht wurde, wird es als Gesamtes ausgelesen und erst der Bildprozessor weiß welcher Bildpunkt welche Farbe rrepräsentiert. Dies wird dann entweder entsprechend formatiert und als RAW-Bild auf der Speicherkarte abgelegt oder anhand der eingestellten Parameter wird das Bild neubrechnet, "entwickelt". Kurz gesagt, es wird das gemacht was hier beschrieben wird: http://www.dxo.com/de/photo/dxo_optics_pro/overview/powerful_denoising/dxo_raw_engine

DxO hat zwar auch ein Lösung, um die Bildverarbeitung in der Kamera zu optimieren, aber selbst die faßt den eigentlichen Sensor nicht an, siehe hier: http://www.dxo.com/de/business/cameraphones/do

Daher: WB bei RAW ist unnötig. Alles andere ist Einbildung.

Anders wäre es, wenn man 3 Sensoren hätte wo jeder geziehlt nur eine Farbe "zu Gesicht" bekommt. Dann könnten die Daten vom Weißabgleich für die Ansteuerung der Sensoren genutzt werden. Aber solange nur ein Sensor da ist, geht es nicht.

Pingu


Na so ganz richtig ist das nicht.

Zumindest bei CMOS Sensoren hat jedes einzelne Pixel eine eigene Verstärkerelektronik.

Dort wäre es theoretisch möglich die Ansprechempfindlichkeit für die verschiedenen Farbkanäle unabhängig voneinander zu regeln, und zwar schon bei der Aufnahme und damit vor der Farbinterpolation. Gilt übrigens auch für den Foveon Sensor. Er basiert auch auf dem CMOS Prinzip.

Ob dieser Weg beim manuellen Weissabgleich allerdings genutzt wird, kann ich nicht sagen. Wäre interessant zu wissen.
 
Bramix schrieb:
Zumindest bei CMOS Sensoren hat jedes einzelne Pixel eine eigene Verstärkerelektronik.
Dies ist zwar richtig. ABER: trotzdem ist es praktisch unmöglich jeden einzelnen Pixel unterschiedlich auszusteuern. Dies müßte man aber machen, denn die einzelnen Farben lieg nicht in einer Reihe sondern abwechselnd. Ausnahme: beim Multiplex. Aber während der Belichtung multiplexen? Hmm ... Ich würde es nicht so machen.

Ansonsten, wenn eine Pixelreihe eine Farbe repräsentieren würde, wäre es auch wieder möglich. Aber da die Farben regelmäßig-unregelmäßig, also abwechselnd, verteilt sind, muss man jeden Pixel einzeln ansprechen können. Das geht nur beim Multiplexen, was wiederum Zeit kostet.
 
Hallo Pingu, ich bin leider kein Elektronik Experte.

Allerdings werden bei CMOS Sensoren doch auch schon diverse Manipulationen bereits auf Pixelebene durchgeführt, sonst wäre es ja überflüssig jedem Pixel eine eigene Verstärkerelektronik zuzuordnen.

Außerdem werden die einzelnen Farbkanäle doch wohl auch separat ausgelesen, also müßten entsprechende Adressleitungen vorhanden sein.
Sind diese Adressleitungen quasi nur Einbahnstrassen?

Es müßte ja nicht jedes einzelne Pixel ausgesteuert werden, sondern nur alle Pixel eines bestimmten Farbkanals.

Von daher erscheint mir der Gedanke eigentlich nicht so abwegig.

Aber wie gesagt: s.o.
 
Bramix schrieb:
Hallo Pingu, ich bin leider kein Elektronik Experte.
Ich will es mal so sagen: mein letztes Desgin liegt über 7 Jahre zurück und mit CCD- oder CMOS-Sensoren habe ich kein Projekt durchgeführt. Daher kann man sagen: Ich bin aus dem Business heraus habe aber natürlich noch das prinzipielle Verständnis.
Bramix schrieb:
Allerdings werden bei CMOS Sensoren doch auch schon diverse Manipulationen bereits auf Pixelebene durchgeführt, sonst wäre es ja überflüssig jedem Pixel eine eigene Verstärkerelektronik zuzuordnen.
Jeder Verstärker braucht eine Speisespannung. Die Verstärker werden so designed sein, dass die gleiche Speisespannung gleiche Helligkeitswerte innerhalb einer Zeile bedeuten.
Bramix schrieb:
Außerdem werden die einzelnen Farbkanäle doch wohl auch separat ausgelesen, also müßten entsprechende Adressleitungen vorhanden sein.
Das kann ich mir nicht vorstellen. Normallerweise werden solche Sensoren zeilenweise ausgelesen. In einer Zeile liegen die Pixel, die mit den verschiedenen Farben (durch den vorgelagerten Filter) belichtet wurden, nebeneinander. Daher weiss man z.B. das jeder gerade Pixel ein "Rot-Pixel" und jeder ungerade Pixel ein "Grün-Pixel" ist.
Bramix schrieb:
Sind diese Adressleitungen quasi nur Einbahnstrassen?
Adressleitungen sind immer Einbahnstrassen. Das Prinzip wird das gleiche Prinzip sein, wie bei einer Tastatur. Nur mit dem Unterschied das man weiss wie stark eine Taste gedrückt wurde.
Bramix schrieb:
Es müßte ja nicht jedes einzelne Pixel ausgesteuert werden, sondern nur alle Pixel eines bestimmten Farbkanals.
Dann müsste der Sensor und der Filter zusammenpassen. Solche Sachen werden aber unabhängig voneinander entwickelt.
 
Zurück
Oben Unten