freedolin
Aktives Mitglied
- Dabei seit
- 09.05.2006
- Beiträge
- 1.578
- Reaktionspunkte
- 77
Schattenmantel schrieb:Bin schonmal gespannt drauf!
Ich jetzt aber auch. Mach mal, ich hab' meine Kamera leider im Moment nicht in Reichweite.
-- Markus
Folgen Sie dem Video unten, um zu sehen, wie Sie unsere Website als Icon auf Ihrem Homescreen erstellen.
Anmerkung: This feature may not be available in some browsers.
Schattenmantel schrieb:Bin schonmal gespannt drauf!
Schattenmantel schrieb:Ich werd mal ausprobieren ob sich bei der Belichtungs etwas ändert wenn ich die Farbtemperatur in der Kamera verstelle..
Bin schonmal gespannt drauf!
rpoussin schrieb:(Nikon D100)
rpoussin schrieb:Wenn Du unter Kunstlicht mit dem Kunstlichtabgleich aufnimmst, bekommst Du andere Tonwert- und Dynamikwerte, als wenn Du mit dem Daylightabgleich aufnimmst.
rpoussin schrieb:Ob die Zeit/Blendenkombination (Lichtwerte) eine andere ist, weiß ich nicht.
freedolin schrieb:Ok, siehe meine Einschränkung weiter oben. Die Nikon-Belichtungsmessung (3D Matrix Messung) ist meines Wissens nicht farbenblind, folglich könnte hier der Weissabgleich durchaus Einfluss auf die Messung haben.
-- Markus
Bramix schrieb:Alles was jenseits des über- oder untersteuerten Bereichs liegt, hat ja praktisch keine Zeichnung mehr. Raw kann da ja auch nichts mehr herbeizaubern. Was weg ist, ist weg.
Bramix schrieb:Wäre natürlich ganz gut, zu diesem Thema mal einen echten Fachmann zu hören. Die Belichtungsmessung ist in der Regel farbenblind. Deshalb gibts ja oft Probleme, wenn eine Farbe stark in einem Bild dominiert, wie z.B. bei Kunstlicht, Abendsonne etc.
Korrigiere ich jetzt die Belichtung, wird das gesamte Farbspektrum im Histogramm nach links oder rechts verschoben. Die z.B. im Helligkeitsbereich übersteuerten Farben kommen dann in den akzeptablen Bereich, ABER die anderen Farben können dann schon wieder in den untersteuerten Bereich kommen und absaufen.
Alles was jenseits des über- oder untersteuerten Bereichs liegt, hat ja praktisch keine Zeichnung mehr. Raw kann da ja auch nichts mehr herbeizaubern. Was weg ist, ist weg.
Bei Digital-Kameras ist das Clipping ja abrupter als beim Film.
rpoussin schrieb:Stativ, Belichtungsreihe, Photoshop, HDR-Image. Geht aber wohl nur in ausgewählten Ausnahmefällen )
freedolin schrieb:Das ist richtig. Aber der Grenzbereich ist doch relativ gross. RAW kann dann punkten, wenn der entsprechende Bereich knapp nicht übersteuert ist. Da kann man dann aus einem Bildteil, der eigentlich hoffnunflos überbelichtet aussieht, oft noch eine Menge rausholen (Himmel ist oft ein solcher Bildteil). Hatte gerade gestern so ein Beispiel, ist zwar ein Familienfoto, aber ich kann das gern heute abend mal posten (auch wenn wir damit jetzt arg weit vom Topic wegkommen).
-- Markus
Bramix schrieb:In der Erinnerung "speichert" man die Farben anders als sie in der Realität waren.
Ist ein bekanntes, witziges Phänomen.
freedolin schrieb:Allerdings.
Mir fällt in dem Zusammenhang eine Kleinigkeit ein: als ich noch im Kindesalter war und im Auto mir die Rückbank mit meinem kleinen Bruder teilen musste, hatten wir immer einen Heidenspass bei Fahrten in der Dunkelheit. Denn an Kreuzungen hingen damals regelmässig nicht weisse Strassenlaternen, sondern orangefarbene. Das gab im Auto dann immer eine seltsame Hautfarbe und einen reichlich ungesunden Teint. Im damaligen Alter ein Riesenspass.
Heute fällt mir das nicht mehr auf. Wenn jemand in buntem Licht steht, rechnet das Hirn aus der Erfahrung die Farbe raus, weil es weiss, wie Haut normalerweise aussieht. Ich muss mich dann schon zwingen, die Farbe sehen zu wollen.
Wo wir aber gerade beim Thema Wahrnehmung sind: man kennt ja diese vielfältigen Zeichnungen zum Thema trainierte Wahrnehmung, scheinbar unterschiedlich lange oder gebogene Linien, die in wahrheit aber exakt gleich lang und gerade sind, oder scheinbar unterschiedlich helle Farbklekse, die aber doch die gleiche Farbe haben.
Gerade zu letzterem habe ich neulich ein Beispiel gefunden, das ich schlicht genial finde:
Link hier.
Man ahnt es schon: Feld A und B haben exakt die gleiche Farbe. Ich hab' das nicht wahrhaben wollen und per Photoshop beide Felder verglichen. Stimmt tatsächlich.
-- Markus
Schattenmantel schrieb:Benutzt nicht die neue Sigma Kamera so einen Aufbau von mehreren Sensoren??
The Foveon X3® direct image sensor featured in the Sigma SD14 digital SLR can capture all primary RGB colours at each and every pixel arranged in three layers, insuring the capture of full and complete colour. Using three silicon-embedded layers of photo detectors, stacked to take advantage of silicon’s ability to absorb red, green, and blue light at different respective depths, it efficiently reproduces colour more accurately and offers sharper resolution, pixel for pixel, than any conventional image sensor.
Pingu schrieb:Freedolin hat vollkommen Recht. Der Weißabgleich in der Kamera ist im RAW-Modus unnötig. Dagegen im TIFF- oder JPG-Modus ist er wichtig.
Ein Sensor ist ein ganzes Stück vor dem ein Farbfilter angeordnet ist. Wenn man den Farbfilter weglassen würde, hätte man einen sehr hochauflösenden Schwarzweiß-Sensor. Man kann einem solchen Sensor nur ingesamt eine Vorspannung mitgeben und nicht einzelnen Bildpunkten. Theoretisch wäre dies sicherlich zwar möglich, aber praktisch bei über 10 Millionen Bildpunkten nicht durchführbar. Daher wird nur der ISO-Wert in einen unterschiedlich starke Vor-/Ansteuerspannung für den Sensor als Gesamteinheit umgesetzt.
Wenn dann das Bild gemacht wurde, wird es als Gesamtes ausgelesen und erst der Bildprozessor weiß welcher Bildpunkt welche Farbe rrepräsentiert. Dies wird dann entweder entsprechend formatiert und als RAW-Bild auf der Speicherkarte abgelegt oder anhand der eingestellten Parameter wird das Bild neubrechnet, "entwickelt". Kurz gesagt, es wird das gemacht was hier beschrieben wird: http://www.dxo.com/de/photo/dxo_optics_pro/overview/powerful_denoising/dxo_raw_engine
DxO hat zwar auch ein Lösung, um die Bildverarbeitung in der Kamera zu optimieren, aber selbst die faßt den eigentlichen Sensor nicht an, siehe hier: http://www.dxo.com/de/business/cameraphones/do
Daher: WB bei RAW ist unnötig. Alles andere ist Einbildung.
Anders wäre es, wenn man 3 Sensoren hätte wo jeder geziehlt nur eine Farbe "zu Gesicht" bekommt. Dann könnten die Daten vom Weißabgleich für die Ansteuerung der Sensoren genutzt werden. Aber solange nur ein Sensor da ist, geht es nicht.
Pingu
Dies ist zwar richtig. ABER: trotzdem ist es praktisch unmöglich jeden einzelnen Pixel unterschiedlich auszusteuern. Dies müßte man aber machen, denn die einzelnen Farben lieg nicht in einer Reihe sondern abwechselnd. Ausnahme: beim Multiplex. Aber während der Belichtung multiplexen? Hmm ... Ich würde es nicht so machen.Bramix schrieb:Zumindest bei CMOS Sensoren hat jedes einzelne Pixel eine eigene Verstärkerelektronik.
Ich will es mal so sagen: mein letztes Desgin liegt über 7 Jahre zurück und mit CCD- oder CMOS-Sensoren habe ich kein Projekt durchgeführt. Daher kann man sagen: Ich bin aus dem Business heraus habe aber natürlich noch das prinzipielle Verständnis.Bramix schrieb:Hallo Pingu, ich bin leider kein Elektronik Experte.
Jeder Verstärker braucht eine Speisespannung. Die Verstärker werden so designed sein, dass die gleiche Speisespannung gleiche Helligkeitswerte innerhalb einer Zeile bedeuten.Bramix schrieb:Allerdings werden bei CMOS Sensoren doch auch schon diverse Manipulationen bereits auf Pixelebene durchgeführt, sonst wäre es ja überflüssig jedem Pixel eine eigene Verstärkerelektronik zuzuordnen.
Das kann ich mir nicht vorstellen. Normallerweise werden solche Sensoren zeilenweise ausgelesen. In einer Zeile liegen die Pixel, die mit den verschiedenen Farben (durch den vorgelagerten Filter) belichtet wurden, nebeneinander. Daher weiss man z.B. das jeder gerade Pixel ein "Rot-Pixel" und jeder ungerade Pixel ein "Grün-Pixel" ist.Bramix schrieb:Außerdem werden die einzelnen Farbkanäle doch wohl auch separat ausgelesen, also müßten entsprechende Adressleitungen vorhanden sein.
Adressleitungen sind immer Einbahnstrassen. Das Prinzip wird das gleiche Prinzip sein, wie bei einer Tastatur. Nur mit dem Unterschied das man weiss wie stark eine Taste gedrückt wurde.Bramix schrieb:Sind diese Adressleitungen quasi nur Einbahnstrassen?
Dann müsste der Sensor und der Filter zusammenpassen. Solche Sachen werden aber unabhängig voneinander entwickelt.Bramix schrieb:Es müßte ja nicht jedes einzelne Pixel ausgesteuert werden, sondern nur alle Pixel eines bestimmten Farbkanals.