Farbtiefe einstellen 8bit?

D

Dimension

Mitglied
Thread Starter
Dabei seit
12.05.2020
Beiträge
27
Reaktionspunkte
2
Ist es möglich die Farbtiefe, die der Mac als Output hat, einzustellen?
Was ist standartmäßig eingestellt? Wenn man einen Monitor hat, der theoretisch 10bit unterstützt, kann man dann trotzdem auf 8bit runterstellen, wenn man es will?
 
Naja, die Einstellungsmöglichkeiten, die der Anwender haben soll, findet er im Kontrollfeld »Monitore« (ggf. ferner in »Energiesparen«, falls modellabhängig die Wahl zwischen einer Onboard- und einer separaten Grafikkarte bei Batteriebetrieb besteht). Und alle Optionen variieren von der verwendeten bzw. der vorhandenen Hardware.

Ich vermute, dass es Einstellungen gibt, die der Anwender nicht so mal eben finden soll; die mögen dann via Terminal gesetzt werden.

Ansonsten: Welchen Zweck verfolgst du mit einer Abweichung vom Standard?
 
Wenn man einen Monitor hat, der theoretisch 10bit unterstützt, kann man dann trotzdem auf 8bit runterstellen, wenn man es will?
das kann ich bei mir im Monitor Menü selber, am Mac kenne ich keine möglichkeit
 
Kann beispielsweise in Photoshop aktiviert werden.
Warum man auf 8 Bit runter will …
 
Ich sichere Bilder in Photoshop auf 8 bit runter wegen der Dateigröße. Das macht enorm viel aus
und ich sehe eigentlich nie einen Unterschied.
 
Ich sichere Bilder in Photoshop auf 8 bit runter wegen der Dateigröße. Das macht enorm viel aus
und ich sehe eigentlich nie einen Unterschied.

Wenn der Monitor keine 10bit kann, sieht man es auch nicht.
 
  • Gefällt mir
Reaktionen: Carmageddon
Ich sichere Bilder in Photoshop auf 8 bit runter wegen der Dateigröße. Das macht enorm viel aus und ich sehe eigentlich nie einen Unterschied.
Wenn du die Bilder später ausgeben willst (Druck), musst du das auch.
Einen Unterschied siehst du, wenn du einen Monitor mit mehr als 8 Bit betreibst und einen High-Bit-Scan (z. B. Astroaufnahme), oder ein Bild mit weichen Verläufen mit mehr als 8 Bit bearbeiten musst.
Man muss zwischen der Farbtiefe, die der Monitor mit seiner Hardware fähig ist darzustellen (wieviele Grauabstufungen) und der Farbtiefe des Bildes unterscheiden.
Betrachte ich ein 12 Bit Bild auf einem 8 Bit Monitor, sehe ich die feinen Abstufungen nicht, weil der Monitor sie nicht darstellen kann, aber unter Umständen Abrisse, die im Bild nicht vorhanden sind.
Betrachte ich ein 8 Bit Bild auf einem 12 Bit Monitor macht das keinen Unterschied.

Seit wann betrachtet man die Farbtiefe pro Kanal?
Doch, das ist schon richtig. Bei RGB spricht man auch von einem 24-Bit Bild, welches 8 Bit pro Kanal hat.
Bei obigen Ausführungen spreche ich jeweils von einem Kanal.

Was der TE nun mein (Hardware Bittiefe des Panels) oder Bittiefe des Bildes, wissen wir nicht.
 
  • Gefällt mir
Reaktionen: MacEnroe und dooyou
Wenn du die Bilder später ausgeben willst (Druck), musst du das auch.
Sicher? ich bekomme die teilweise so für den Druck geliefert (z.B. von Disney oder Dreamworks),
also in CMYK und in 10 bit ... denke schon, dass ich da auch das eine oder andere so habe drucken lassen.
 
Was im RIP aber wieder runtergerechnet wird. Der Drucker hat ja noch viel weniger Farben als ein 30bit Monitor zur Verfügung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Carmageddon
Nur zum reinen Verständnis, weil ihr hier alle über EBV/Druck sprecht
Es wird ja auch immer von 8bit bzw 10bit Monitoren gesprochen, ich denke jeder weiß was gemeint ist

Ist das evtl. eine spezielle Begrifflichkeit aus selbigen Bereich?
Ich beschäftige mich seit Mitte der 80er mit IT-Kram (allerdings hab ich keinerlei fachlichen Überschneidungen/Berührungen zu EBV/Druck).
Ich bin eher in den Themen Administration, Virtualisierung, Storage, MDM, ThinClients.

8bit Farbtiefe ist für mich was gewesen, was ich bisher mit Homecomputern und den ersten VGA-Karten assoziiert hätte.
Dann kamen High-Color (16bit) und TrueColor (24bit)...

Schaut ihr da einfach nur aus einer (ganz) anderen Perspektive drauf als ich?
 
Da werden die Kanäle gemeint, Kameras haben ja auch 12bit/14bit/16bit pro Kanal. Da wir von RGB reden, wird das eben mit 3 multipliziert. Deine VGA 8bit beschränken sich auf 256 Farben, anstatt die hier gemeinten 256^3 Farben.
 
  • Gefällt mir
Reaktionen: drd[cc] und Carmageddon
Was im RIP aber wieder runtergerechnet wird. Der Drucker hat ja noch viel weniger Farben als ein 30bit Monitor zur Verfügung.

D.h. man muss die Bilder eben NICHT auf 8bit für den späteren Druck runterrechnen, ok ... hätte mich
auch echt gewundert.
 
Schaut ihr da einfach nur aus einer (ganz) anderen Perspektive drauf als ich?

Ich bin da jetzt kein Experte, aber ich kann mir diesen Unterschied so erklären:

Wenn es darum geht mit einem physischen Gerät eine Farbe zu erzeugen, dann muss mann immer Farben mischen - in einem Monitor sind das die winzig kleinen RGB "Lampen". Daher ist die Betrachtung für Leute die nah am physischen Gerät sind immer pro Kanal.

Wenn man sich "Farben" auf einer abstrakten Programmierer-Ebene ansieht, dann fragt man sich nicht wie man die Farbe mit RGB Komponenten mischt, sondern nur wieviele Bits man pro Pixel für die Farbinformation bereitstellt. Daher war es in den 80'er und 90'er so: ob 8/16/24 Bit Farbtiefe war eine "Speicherplatz pro Pixel" Frage.
 
  • Gefällt mir
Reaktionen: drd[cc]
D.h. man muss die Bilder eben NICHT auf 8bit für den späteren Druck runterrechnen, ok ... hätte mich
auch echt gewundert.
Ich würde das auf jeden Fall machen. Ein Bild kann nur mit 8 Bit für den Druck ausgegeben werden.
Bearbeitest du ein Bild mit 10 oder mehr Bit auf einem Monitor, der auch mehr kann, dann siehst du schöne weiche Verläufe. Es kann gut sein, dass diese stufig werden, wenn sie in 8 Bit runtergerechnet werden.
Machst du es selbst, dann siehst du das in dem Moment auch.
Macht es die Druckerei, siehst du es erst, wenn es fertig ist.
 
  • Gefällt mir
Reaktionen: MacEnroe
Ich bin da jetzt kein Experte, aber ich kann mir diesen Unterschied so erklären:

Wenn es darum geht mit einem physischen Gerät eine Farbe zu erzeugen, dann muss mann immer Farben mischen - in einem Monitor sind das die winzig kleinen RGB "Lampen". Daher ist die Betrachtung für Leute die nah am physischen Gerät sind immer pro Kanal.

Wenn man sich "Farben" auf einer abstrakten Programmierer-Ebene ansieht, dann fragt man sich nicht wie man die Farbe mit RGB Komponenten mischt, sondern nur wieviele Bits man pro Pixel für die Farbinformation bereitstellt. Daher war es in den 80'er und 90'er so: ob 8/16/24 Bit Farbtiefe war eine "Speicherplatz pro Pixel" Frage.

Unabhängig vom Speicher, wie viele Farben konnten denn Monitore darstellen? ;) Und wie leistungsstark waren die Grafikeinheiten? Videos und Digitalbilder waren ja kein Thema. Unkomprimiert wären 800x600px bei 8bit/Kanal schon 1,44MB.
 
Zuletzt bearbeitet:
Ich würde das auf jeden Fall machen. Ein Bild kann nur mit 8 Bit für den Druck ausgegeben werden.
Bearbeitest du ein Bild mit 10 oder mehr Bit auf einem Monitor, der auch mehr kann, dann siehst du schöne weiche Verläufe. Es kann gut sein, dass diese stufig werden, wenn sie in 8 Bit runtergerechnet werden.
Machst du es selbst, dann siehst du das in dem Moment auch.
Macht es die Druckerei, siehst du es erst, wenn es fertig ist.

Bei den 10-bit Bildern handelt es sich wie gesagt um Bildmaterial von Disney oder Dreamworks und
anderer Lizenzen. Die sollten eigentlich für den Druck vorbereitet sein. Eigene Bilder haben bei mir sowieso 8 bit.
Ich ändere aber wegen der Dateigrößen in der Regel eh auf 8 bit.
 
Zurück
Oben Unten