Windows-Rechner sind für prof. Bildbearbeitung besser!!!

Leute, ihr habt einen an der Klatsche! ;)

Den Unterschied erkennt das menschliche Auge nicht, es sei denn, bei EXTREMEN Vergrößerungen.
 
...nach 16 Bit bin ich froh wenn ich den Weg in´s Bett schaffe...
 
  • Gefällt mir
Reaktionen: Spock, Snyder, dragonmh und 7 andere
Das ist selbst einigen Profis nicht geläufig: Apple-Computer beherrschen keine 10-Bit-Darstellung, können also keine Bilder mit 1,07 Milliarden Farben anzeigen.

Das mag auch daran liegen, dass dies für diese Profis schlicht irrelevant ist. Ich gehe einmal davon aus, dass ein Profi über seine Anforderungen Bescheid weiß.

Windows-Rechner sind daher für die professionelle Bildbearbeitung besser geeignet.

Könnte man je nach Sichtweise als eine unzulässige Schlussfolgerung ansehen, richtig wäre hier: dann besser geeignet, wenn es auch darauf ankommt. Natürlich kann man auch eine generelle Bewertung abgeben und alles miteinbeziehen, was professionelle Bildbearbeitung auch umfasst - dann aber bleibt obiger Satz schnell missverständlich, wenn es in der professionellen Bildbearbeitung genau darauf nicht ankommt.
 
ich frage mich schon seit Jahren, wie wir es schafften/schaffen, Topp-Ergebnisse in der EBV zu generieren. Auf SGI und Apple-Maschinen. Zur Ausgabe im Multimedia-Bereich, speziell im Printbereich. 99,9 Prozent der EBV werden hierfür hergestellt.

Wie soll das im Print realisiert werden? Milliarden von Farben darstellen, welcher Raster soll dies schaffen?

Die beste Darstellung wird zumindest im Printbereich mit Hybrid-Rastern erzielt. Aber auch da ist mal Schluss mit der Punkteanzahl.

Über die Realisierung im Netz wollen wir gar nicht reden/schreiben. Also mache ich dies nur für mich. Ich sitze vor dem Monitor und hole mir ob der Schönheit und Klarheit des Motivs Einen runter.

Wer also hat was davon? Ein paar Theoretiker.

Gruss Jürgen
 
Den Unterschied erkennt das menschliche Auge nicht, es sei denn, bei EXTREMEN Vergrößerungen.
Also was jetzt?
So, wie ich es geschrieben habe!
:zeitung: Meine Vermutung ist, dass man0l0 ausdrücken will, dass sich dein Nicht-Außer vom logischen Standpunkt betrachtet widerspricht.

Also, die Aussage…
»Den Unterschied erkennt das menschliche Auge nicht, es sei denn, bei EXTREMEN Vergrößerungen«
… müsste, um nicht in eine logische Falle zu tappen, eher etwa formuliert werden als…
»Den Unterschied erkennt das menschliche Auge nur bei EXTREMEN Vergrößerungen«,
denn wenn es diese bei extremen Vergrößerungen erkenne, kann nicht mehr behauptet werden, dass es diese nicht erkenne.

Fraglos ist’s aber auch so, dass die menschliche Sprache ganz gut mit sich widersprechenden Teilaussagen umgehen kann, indem deine Nicht-Aussage ganz stickum als ein Spezialfall deiner Außer-Aussage aufgefasst wird. Diese Strategie menschlicher Auffassungsgabe vermeidet im gewöhnlichen Leben Unmengen an Rückfragen (es sei denn, Mr. Spock ist der Gesprächspartner).
:hehehe:
 
  • Gefällt mir
Reaktionen: Franken und Beaulieu
Man könnte auch sagen, Apple verkauft Emotionen, Microsoft verkauft Arbeitsgeräte :noplan:
 
Sagen kann man alles. Das macht es noch nicht richtig.

Eben, und wie wir alle wissen war gerade Bill Gates dafür bekannt, PCs und das OS so zu gestalten, das es anwenderfreundlich war.
Ich meine sogar es war sein über alles andere gestellte Ziel, was er von Anfang an als Vision in sich trug und der Welt zugänglich machen wollte.

PS: Wer Ironie findet bringt sie bitte zum Fundbüro, danke
 
Wenn die "Profis" Kaufentscheidungen mit Überlegungen den Eingangsthreads treffen, dann versteht man so einiges in diesem Thread…

Rechner (unabhängig von Marke und Hersteller) ebenso wie Software, sollte man als "Profi" wohlüberlegten Argumenten und eingehender Tests treffen! Was ist die Aufgabe, was sagen die Arbeitsanforderungen, wie ist das Preisleistungsverhältnis, Zuverlässigkeit - und manmal ist auch das Design wichtig (Publikumsverkehr!). Das 8 oder 10 Bit einen Unterschied machen bestreitet hier jemand? (wg. "Beißreflex") Oder ist es nicht so, dass die meisten hier diesen Unterschied praktisch einordnen können? 256 Graustufen kann der Mensch in etwa unterscheiden, wenn es zu einer gestuften Abbildung kommt, liegt das nicht an 8 oder 10 Bit, sondern an der technischen Umsetzung bei einem Display. Die Darstellung auf kleineren Displays ist kompakter, logisch und auf sehr großen "gestreckter" dennoch ist die Wahrnehmung von "Helligkeits-Treppen" ein Problem der Darstellung, dass nicht allein von 10 Bit gelöst wird!

Graustufen sind übrigens nicht der optimale Erklärungsansatz, die Farbnuancen bei "bunten" Farbübergängen differenzieren Menschen übrigens noch feiner, wie deutlich wir das wahrnehmen hängt auch von der Qualität des Displays ab! Hochauflösende Displays (blödsinniger Weise nennt irgendein Marketingfuzzi diese "Retina") können durchaus so interpolieren das die Übergänge sehr soft oder eher hart (= Stufen) erscheinen - nicht unbedingt eine Frage von 8 oder 10 Bit. Das menschliche Auge ist auch GANZ SICHER nicht geeignet bei 10 Bit Darstellung eine zuverlässige Differenzierung zu machen, dazu ist unsere Wahrnehmung zu subjektiv (in der wissenschaftlichen Darstellung wird man so einen Unterschied also besser dem Rechner / der Software überlassen).

Zur Analyse (z.B. bei "grauen" analogen Röntgenaufnahmen) kam noch die "Erfahrung" als Messgröße (obwohl meist nicht einmal 256 Graustufen dargestellt wurden) nicht gerade präzise. Digitale Bildanalyse und Umsetzung interpretiert die Werte schon BEVOR wir sie auf einem Monitor sehen, warum also nicht die gesamte Analyse? In der Geologie arbeiten wir auch nicht mit 8 oder 10 Bit, sondern obendrein auch noch in Spektren außerhalb des sichtbaren Lichtes, damit wir sie überhaupt "sehen" werden sie digital interpretiert und passend zu unserem Farbsehen umkodiert. (Die "Analyse" hat also der Rechner vorgenommen, BEVOR wir sie sehen, er ZEIGT sie uns bloß in unserem Wahrnehmungspektrum. Fledermäuse können wir auch nicht hören, aber umkodiert "hörbar" machen…)

Der "praktische Nutzen" einer 10 Bit Kodierung (oder mehr) kann allerdings tatsächlich z.B. in der künstlerischen Darstellung genutzt werden, wo eben der subjektive Eindruck das Hauptkriterium darstellt, mehr Bit können bei geschicktem Einsatz mehr Effekte erzeugen, aber das ist dann auch eine "subjektive Entscheidung".

Warum Apple allerdings die technisch gar nicht so schwierige Umsetzung auf 10 Bit (bei den großen Grafikkarten) nicht vornimmt, erklärt sich vielleicht eher aus der Strategie "alles soll gleich aussehen" also auch auf den kleinen und preiswertesten Displays!? Aber das ist Spekulation, nix womit ich arbeiten würde ;)
 
Eben, und wie wir alle wissen war gerade Bill Gates dafür bekannt, PCs und das OS so zu gestalten, das es anwenderfreundlich war.
Ich meine sogar es war sein über alles andere gestellte Ziel, was er von Anfang an als Vision in sich trug und der Welt zugänglich machen wollte.

PS: Wer Ironie findet bringt sie bitte zum Fundbüro, danke

Du meinst also so Anwenderfreundlich wie die neue Fotos.app?

"Wenn du dir die Anwender deiner Programme als Idioten vorstellst, werden auch nur Idioten deine Programme verwenden."
Linus Torvalds
 
Es gab für mich viele Gründe bei meiner Arbeit auf den PC zu setzen, aber das 8/10-Ding gehörte nicht dazu ...
 
Das mag auch daran liegen, dass dies für diese Profis schlicht irrelevant ist.

Ich habe die c't zitiert. Das obige sieht so aus als wenn ich es geschrieben hätte.

c't:
"Wir schlossen einen 10-Bit-fähigen Monitor an den Mac Pro an [...] Unser verwendetes Testbild zeigte einen Graustufenverlauf voller Unterbrechungen (Banding)."
"Wer höchsten Wert auf Farbpräzision legt, muss tatsächlich zu einem PC mit Microsoft Windows greifen, denn dort funktioniert die 10-Bit-Ausgabe problemlos."
"Kein Wunder, dass sich manche Nutzer [...] fragen, ob Apple [...] Profigrafik-Standards vernachlässige."


What is a 30 Bit Photography Workflow?
https://photographylife.com/what-is-30-bit-photography-workflow
 
Zuletzt bearbeitet:
Ich habe die c't zitiert. Das obige sieht so aus als wenn ich es geschrieben hätte.

c't:
"Wir schlossen einen 10-Bit-fähigen Monitor an den Mac Pro an [...] Unser verwendetes Testbild zeigte einen Graustufenverlauf voller Unterbrechungen (Banding)."
"Wer höchsten Wert auf Farbpräzision legt, muss tatsächlich zu einem PC mit Microsoft Windows greifen, denn dort funktioniert die 10-Bit-Ausgabe problemlos."

Und jetzt gilt es eben zu ermitteln, wer der "Wer" ist und wie hoch der "höchste Wert" denn ist
und ob dieser "höchste Wert" für Fotografen, Filmer, Grafiker, Illustratoren, Druckvorstufe, ... denn überhaupt relevant ist.

Wie angesprochen mag es in Forschungsbereichen und der Medizin solche Anwendungen und "Wer´s" auch geben,
aber mir ist es in meiner Zeit als Grafiker und Fotograf noch nicht aufgefallen dass ich diesen "höchsten Wert" vermisst hätte.
 
Auf SGI und Apple-Maschinen.

1. EBV Gebot: Du sollst Äpfel nicht mit SGIs vergleichen. :nono:

Seit XZ Graphics konnte man 12 Bit im Color Index Mode, das war im wissenschaftlichen Bereich das Killerfeature schlechthin.
Die Maschinchen mit VPro Graphics konnten in allen Modi 48 Bit.

Für Print und Schweinebauchzettel braucht man's nicht, das ist klar, aber wir haben damals auf Film ausgegeben und um jedes Bit gekämpft. :cool:

@Lor-Olli
Betreffend Radiologie oder Geologie: Gerade dort müssen ja analoge Signale digitalisiert und verarbeitet werden.
Da gilt nachwievor, mehr Bits erhöhen die Qualität der Wandlung und ich meine damit explizit in der Verarbeitung, was anschliessend in verbesserter Darstellung resultieren kann (bzw. sollte es so sein :p ).
Ich glaube auch nicht, dass die "technisch gar nicht so schwierige Umsetzung auf 10 Bit" für Apple einfach wäre.
Ansonsten stimme ich deiner "alles soll gleich aussehen"-These zu und damit es auch nicht unter Bootcamp auffällt, wird es in der Kartenfirmware blockiert, sonst merken es die Leute halt doch irgendwann.
 
Zuletzt bearbeitet:
Auch wenn mir MacUser in der letzten Zeit eher kritisch gegenüber Apple erscheint (oder zumindest scheint mir die Anzahl der Themen, die sich diesbezüglich positionieren, doch sehr zugenommen zu haben), muss man einfach zugeben, dass Apple einfach nicht mehr das Maß der Dinge ist. Sie haben ihre Schwerpunkte einfach woanders gelegt.
Mich persönlich stört dieses reflexhafte verteidigen von Apple mittlerweile. Ja, es gibt einfach einen Unterschied zwischen 8 und 10 Bit und ich gebe meinen Vorrednern recht, die C´t ist nicht gerade ein Ableger der ComputerBild. Sie berichten eigentlich schon immer sehr sachlich und themenbezogen. Stellt euch doch einmal vor, Apple hätte die 10 Bit Ausgabe und Windows würde durchgängig mit 8 Bit arbeiten. Wäre es dann auch egal oder gar lächerlich?
Versteht mich nicht falsch: Ich schätze meinen iMac sehr, fühle mich im Apple-Universum sehr wohl, aber die Welt da draußen hat sich einfach weitergedreht und nicht immer nur in die Richtung "dünner" oder "leichter".
Unterschiedliche Aufgaben erfordern unterschiedliche Werkzeuge und ich stelle zu meinem Bedauern fest, dass ich diese Werkzeuge nicht mehr immer bei Apple finde.
Das ist okay für mich.
Denn ich glaube nach wie vor, dass eine starke Konkurrenz Apple guttut und sie zwingt, sich zu bewegen, zu öffnen.
Gleichzeitig, und hier widerspreche ich mir, nervt mich auch dieses Runterschreiben von Apple. Ich komme mit dem OSX bestens klar, mein alter iMac rennt nach jedem Update ein kleines bisschen schneller und iOS macht bei mir einfach das, was es soll: Mein Telefon funktionsfähig halten. Möglichst reibungsarm, unaufwändig und akkuschonend.
Licht und Schatten, so wie bei eigentlich jedem Unternehmen.
Okay, jetzt dürft ihr losholzen!
Grüße & einen schönen Sonntag
Hook
 
  • Gefällt mir
Reaktionen: PiaggioX8, electricdawn und maba_de
Zurück
Oben Unten