Farbtiefe einstellen 8bit?

Dimension

Neues Mitglied
Thread Starter
Registriert
12.05.2020
Beiträge
26
Ist es möglich die Farbtiefe, die der Mac als Output hat, einzustellen?
Was ist standartmäßig eingestellt? Wenn man einen Monitor hat, der theoretisch 10bit unterstützt, kann man dann trotzdem auf 8bit runterstellen, wenn man es will?
 

fa66

Aktives Mitglied
Registriert
16.04.2009
Beiträge
15.013
Naja, die Einstellungsmöglichkeiten, die der Anwender haben soll, findet er im Kontrollfeld »Monitore« (ggf. ferner in »Energiesparen«, falls modellabhängig die Wahl zwischen einer Onboard- und einer separaten Grafikkarte bei Batteriebetrieb besteht). Und alle Optionen variieren von der verwendeten bzw. der vorhandenen Hardware.

Ich vermute, dass es Einstellungen gibt, die der Anwender nicht so mal eben finden soll; die mögen dann via Terminal gesetzt werden.

Ansonsten: Welchen Zweck verfolgst du mit einer Abweichung vom Standard?
 

Carmageddon

Aktives Mitglied
Registriert
18.02.2005
Beiträge
1.549
Kann beispielsweise in Photoshop aktiviert werden.
Warum man auf 8 Bit runter will …
 

MacEnroe

Aktives Mitglied
Registriert
10.02.2004
Beiträge
21.427
Ich sichere Bilder in Photoshop auf 8 bit runter wegen der Dateigröße. Das macht enorm viel aus
und ich sehe eigentlich nie einen Unterschied.
 

drd[cc]

Mitglied
Registriert
25.02.2005
Beiträge
677

Carmageddon

Aktives Mitglied
Registriert
18.02.2005
Beiträge
1.549
Ich sichere Bilder in Photoshop auf 8 bit runter wegen der Dateigröße. Das macht enorm viel aus und ich sehe eigentlich nie einen Unterschied.
Wenn du die Bilder später ausgeben willst (Druck), musst du das auch.
Einen Unterschied siehst du, wenn du einen Monitor mit mehr als 8 Bit betreibst und einen High-Bit-Scan (z. B. Astroaufnahme), oder ein Bild mit weichen Verläufen mit mehr als 8 Bit bearbeiten musst.
Man muss zwischen der Farbtiefe, die der Monitor mit seiner Hardware fähig ist darzustellen (wieviele Grauabstufungen) und der Farbtiefe des Bildes unterscheiden.
Betrachte ich ein 12 Bit Bild auf einem 8 Bit Monitor, sehe ich die feinen Abstufungen nicht, weil der Monitor sie nicht darstellen kann, aber unter Umständen Abrisse, die im Bild nicht vorhanden sind.
Betrachte ich ein 8 Bit Bild auf einem 12 Bit Monitor macht das keinen Unterschied.

Seit wann betrachtet man die Farbtiefe pro Kanal?
Doch, das ist schon richtig. Bei RGB spricht man auch von einem 24-Bit Bild, welches 8 Bit pro Kanal hat.
Bei obigen Ausführungen spreche ich jeweils von einem Kanal.

Was der TE nun mein (Hardware Bittiefe des Panels) oder Bittiefe des Bildes, wissen wir nicht.
 

MacEnroe

Aktives Mitglied
Registriert
10.02.2004
Beiträge
21.427
Wenn du die Bilder später ausgeben willst (Druck), musst du das auch.
Sicher? ich bekomme die teilweise so für den Druck geliefert (z.B. von Disney oder Dreamworks),
also in CMYK und in 10 bit ... denke schon, dass ich da auch das eine oder andere so habe drucken lassen.
 

Veritas

Aktives Mitglied
Registriert
26.11.2007
Beiträge
20.545
Was im RIP aber wieder runtergerechnet wird. Der Drucker hat ja noch viel weniger Farben als ein 30bit Monitor zur Verfügung.
 
Zuletzt bearbeitet:

drd[cc]

Mitglied
Registriert
25.02.2005
Beiträge
677
Nur zum reinen Verständnis, weil ihr hier alle über EBV/Druck sprecht
Es wird ja auch immer von 8bit bzw 10bit Monitoren gesprochen, ich denke jeder weiß was gemeint ist

Ist das evtl. eine spezielle Begrifflichkeit aus selbigen Bereich?
Ich beschäftige mich seit Mitte der 80er mit IT-Kram (allerdings hab ich keinerlei fachlichen Überschneidungen/Berührungen zu EBV/Druck).
Ich bin eher in den Themen Administration, Virtualisierung, Storage, MDM, ThinClients.

8bit Farbtiefe ist für mich was gewesen, was ich bisher mit Homecomputern und den ersten VGA-Karten assoziiert hätte.
Dann kamen High-Color (16bit) und TrueColor (24bit)...

Schaut ihr da einfach nur aus einer (ganz) anderen Perspektive drauf als ich?
 

Veritas

Aktives Mitglied
Registriert
26.11.2007
Beiträge
20.545
Da werden die Kanäle gemeint, Kameras haben ja auch 12bit/14bit/16bit pro Kanal. Da wir von RGB reden, wird das eben mit 3 multipliziert. Deine VGA 8bit beschränken sich auf 256 Farben, anstatt die hier gemeinten 256^3 Farben.
 

MacEnroe

Aktives Mitglied
Registriert
10.02.2004
Beiträge
21.427
Was im RIP aber wieder runtergerechnet wird. Der Drucker hat ja noch viel weniger Farben als ein 30bit Monitor zur Verfügung.

D.h. man muss die Bilder eben NICHT auf 8bit für den späteren Druck runterrechnen, ok ... hätte mich
auch echt gewundert.
 

oglimmer

Aktives Mitglied
Registriert
16.11.2004
Beiträge
1.260
Schaut ihr da einfach nur aus einer (ganz) anderen Perspektive drauf als ich?

Ich bin da jetzt kein Experte, aber ich kann mir diesen Unterschied so erklären:

Wenn es darum geht mit einem physischen Gerät eine Farbe zu erzeugen, dann muss mann immer Farben mischen - in einem Monitor sind das die winzig kleinen RGB "Lampen". Daher ist die Betrachtung für Leute die nah am physischen Gerät sind immer pro Kanal.

Wenn man sich "Farben" auf einer abstrakten Programmierer-Ebene ansieht, dann fragt man sich nicht wie man die Farbe mit RGB Komponenten mischt, sondern nur wieviele Bits man pro Pixel für die Farbinformation bereitstellt. Daher war es in den 80'er und 90'er so: ob 8/16/24 Bit Farbtiefe war eine "Speicherplatz pro Pixel" Frage.
 

Carmageddon

Aktives Mitglied
Registriert
18.02.2005
Beiträge
1.549
D.h. man muss die Bilder eben NICHT auf 8bit für den späteren Druck runterrechnen, ok ... hätte mich
auch echt gewundert.
Ich würde das auf jeden Fall machen. Ein Bild kann nur mit 8 Bit für den Druck ausgegeben werden.
Bearbeitest du ein Bild mit 10 oder mehr Bit auf einem Monitor, der auch mehr kann, dann siehst du schöne weiche Verläufe. Es kann gut sein, dass diese stufig werden, wenn sie in 8 Bit runtergerechnet werden.
Machst du es selbst, dann siehst du das in dem Moment auch.
Macht es die Druckerei, siehst du es erst, wenn es fertig ist.
 

Veritas

Aktives Mitglied
Registriert
26.11.2007
Beiträge
20.545
Ich bin da jetzt kein Experte, aber ich kann mir diesen Unterschied so erklären:

Wenn es darum geht mit einem physischen Gerät eine Farbe zu erzeugen, dann muss mann immer Farben mischen - in einem Monitor sind das die winzig kleinen RGB "Lampen". Daher ist die Betrachtung für Leute die nah am physischen Gerät sind immer pro Kanal.

Wenn man sich "Farben" auf einer abstrakten Programmierer-Ebene ansieht, dann fragt man sich nicht wie man die Farbe mit RGB Komponenten mischt, sondern nur wieviele Bits man pro Pixel für die Farbinformation bereitstellt. Daher war es in den 80'er und 90'er so: ob 8/16/24 Bit Farbtiefe war eine "Speicherplatz pro Pixel" Frage.

Unabhängig vom Speicher, wie viele Farben konnten denn Monitore darstellen? ;) Und wie leistungsstark waren die Grafikeinheiten? Videos und Digitalbilder waren ja kein Thema. Unkomprimiert wären 800x600px bei 8bit/Kanal schon 1,44MB.
 
Zuletzt bearbeitet:

MacEnroe

Aktives Mitglied
Registriert
10.02.2004
Beiträge
21.427
Ich würde das auf jeden Fall machen. Ein Bild kann nur mit 8 Bit für den Druck ausgegeben werden.
Bearbeitest du ein Bild mit 10 oder mehr Bit auf einem Monitor, der auch mehr kann, dann siehst du schöne weiche Verläufe. Es kann gut sein, dass diese stufig werden, wenn sie in 8 Bit runtergerechnet werden.
Machst du es selbst, dann siehst du das in dem Moment auch.
Macht es die Druckerei, siehst du es erst, wenn es fertig ist.

Bei den 10-bit Bildern handelt es sich wie gesagt um Bildmaterial von Disney oder Dreamworks und
anderer Lizenzen. Die sollten eigentlich für den Druck vorbereitet sein. Eigene Bilder haben bei mir sowieso 8 bit.
Ich ändere aber wegen der Dateigrößen in der Regel eh auf 8 bit.
 
Oben Unten