Original geschrieben von hanfkönig
echt?
aber was bringt das? ist ja nur unnötiger prozessor-verbrauch... was man sieht, muss berechnet werden. nicht mehr. so denk ich
Nein, da muss nicht mehr berechnet werden, ganz im Gegenteil. Die Farben werden intern mit 16bit pro kanal gespeichert. Wenn sie dann mit 8 bit pro Kanal ausgegeben werdensollen, werden einfach nur die ersten 8bit des jeweiligen Kanals an die Grafikkarte weitergegeben. Da wird keine Rechenzeit für extrapolieren o.ä. verschwendet.
8 bit pro Kanal schienen den Mac-Entwicklern wohl 1986 zu knapp bemessen für eine mögliche Zukunft. Und da ein Datenwort ab dem 9. bit eh 16 bit (2 Byte) groß wird, werden einfach 3 komplette 16-bit-Datenworte verwendet.
32k Farben?
Es sind doch 65536 farben. also 16bit... ist ja immer 8 bit mehr.
Nein. 64k Farben sind im RGB-Farbsystem schon rein rechnerisch nicht möglich. Denn 16 bit sind nicht durch die 3 Farbkanäle Rot, Grün und Blau teilbar. 16 bit-Farben würden nur gehen, wenn einer der Farbkanäle mit einem bit mehr kodiert werden würde, als die anderen. Macht irgendwie keinen Sinn.
Am Mac (im Kontrollfeld Monitore von OS 9 z.B.) heißt es auch 32768 Farben. Die 65536 Farben bei Windows sind gelogen, denn das erste bit von den 16 ist immer 0 (es sei denn es wird mit indizierten Farben gearbeitet, was bei M$ nicht auszuschließen ist

.)
256 bit, 65k, 16 Mio, 4 Mrd,...
hehe, mac os berechnet also 280 Billionen Farben? hab gerade ein bissle gerechnet...
65536 pro Kanal. Macht 281474976710656 theoretisch mögliche RGB-Farben.
Hier kannst Du es nachlesen.
http://developer.apple.com/techpubs/mac/QuickDraw/QuickDraw-198.html#MARKER-9-68