Wenn die "Profis" Kaufentscheidungen mit Überlegungen den Eingangsthreads treffen, dann versteht man so einiges in diesem Thread…
Rechner (unabhängig von Marke und Hersteller) ebenso wie Software, sollte man als "Profi" wohlüberlegten Argumenten und eingehender Tests treffen! Was ist die Aufgabe, was sagen die Arbeitsanforderungen, wie ist das Preisleistungsverhältnis, Zuverlässigkeit - und manmal ist auch das Design wichtig (Publikumsverkehr!). Das 8 oder 10 Bit einen Unterschied machen bestreitet hier jemand? (wg. "Beißreflex") Oder ist es nicht so, dass die meisten hier diesen Unterschied praktisch einordnen können? 256 Graustufen kann der Mensch in etwa unterscheiden, wenn es zu einer gestuften Abbildung kommt, liegt das nicht an 8 oder 10 Bit, sondern an der technischen Umsetzung bei einem Display. Die Darstellung auf kleineren Displays ist kompakter, logisch und auf sehr großen "gestreckter" dennoch ist die Wahrnehmung von "Helligkeits-Treppen" ein Problem der Darstellung, dass nicht allein von 10 Bit gelöst wird!
Graustufen sind übrigens nicht der optimale Erklärungsansatz, die Farbnuancen bei "bunten" Farbübergängen differenzieren Menschen übrigens noch feiner, wie deutlich wir das wahrnehmen hängt auch von der Qualität des Displays ab! Hochauflösende Displays (blödsinniger Weise nennt irgendein Marketingfuzzi diese "Retina") können durchaus so interpolieren das die Übergänge sehr soft oder eher hart (= Stufen) erscheinen - nicht unbedingt eine Frage von 8 oder 10 Bit. Das menschliche Auge ist auch GANZ SICHER nicht geeignet bei 10 Bit Darstellung eine zuverlässige Differenzierung zu machen, dazu ist unsere Wahrnehmung zu subjektiv (in der wissenschaftlichen Darstellung wird man so einen Unterschied also besser dem Rechner / der Software überlassen).
Zur Analyse (z.B. bei "grauen" analogen Röntgenaufnahmen) kam noch die "Erfahrung" als Messgröße (obwohl meist nicht einmal 256 Graustufen dargestellt wurden) nicht gerade präzise. Digitale Bildanalyse und Umsetzung interpretiert die Werte schon BEVOR wir sie auf einem Monitor sehen, warum also nicht die gesamte Analyse? In der Geologie arbeiten wir auch nicht mit 8 oder 10 Bit, sondern obendrein auch noch in Spektren außerhalb des sichtbaren Lichtes, damit wir sie überhaupt "sehen" werden sie digital interpretiert und passend zu unserem Farbsehen umkodiert. (Die "Analyse" hat also der Rechner vorgenommen, BEVOR wir sie sehen, er ZEIGT sie uns bloß in unserem Wahrnehmungspektrum. Fledermäuse können wir auch nicht hören, aber umkodiert "hörbar" machen…)
Der "praktische Nutzen" einer 10 Bit Kodierung (oder mehr) kann allerdings tatsächlich z.B. in der künstlerischen Darstellung genutzt werden, wo eben der subjektive Eindruck das Hauptkriterium darstellt, mehr Bit können bei geschicktem Einsatz mehr Effekte erzeugen, aber das ist dann auch eine "subjektive Entscheidung".
Warum Apple allerdings die technisch gar nicht so schwierige Umsetzung auf 10 Bit (bei den großen Grafikkarten) nicht vornimmt, erklärt sich vielleicht eher aus der Strategie "alles soll gleich aussehen" also auch auf den kleinen und preiswertesten Displays!? Aber das ist Spekulation, nix womit ich arbeiten würde