Mac mini 2018 - Grafikleistung ausreichend für normal Sterbliche ?

@zeitlos Du hast zum gleichen Thema doch schon einen Thread mit reichlich Antworten laufen, warum jetzt hier auch noch?
 
Aber nochmal zur Sicherheit: Wenn Du „sieht aus wie 2560x1440“ fahren willst (bei einem 27-Zöller optimal), dann nimm einen 5k-Schirm.

Danke für den Tipp! Das heißt aber auch, sobald man davon nach oben oder unten abweicht, läuft man wieder Gefahr, dass es nicht mehr flüssig läuft?

Wo liegt bei 4K der Sweetspot in Sachen Ruckelfreiheit? Ich tendiere aktuell wieder weg vom LG. Einfach wegen dem Glossy. War heute im Saturn vor Ort um mal einige meiner Bilder darauf zu betrachten. Ich bin mir nicht sicher ob ich von meinem EIZO matt zu diesem Glossy hin will. Aus mehreren Gründen.

Spielt es eigentlich für die Hardware (in meinem Fall ja der 2018er 6-core Mini) eine Rolle, ob es das "Apple" LG Display ist oder irgend ein anderes?

Ich hätte noch den BenQ SW271 auf der Liste. Der soll ja sehr gut für Foto sein (sagt man).
 
Ich würde ja in einem Thread bleiben... :p

Noch einmal: Es liegt an macOS. Nicht am LG, nicht an irgendeinem anderen Monitor. Die Auflösung bleibt immer gleich, nämlich dass, was der Monitor hergibt. Das einzige was Du einstellen kannst, ist die Skalierung, also "sieht aus wie". Lass es auf genau der Hälfte, dann bist Du einigermassen im Reinen.

PS: Ganz ehrlich, aus deiner Antwort in dem anderen Thread würde ich sagen, lass es. Es wird Dir wohl nicht gefallen.
 
Ich halte Euch nicht davon ab. Jeder wie er will und kann. ;)

Okay, das ist schon mal gut zu wissen. Ich habe irgendwo gelesen, dass jemand meinte, mit dem LG könnte es besser laufen, weil von Apple unterstützt und die Hardware könnte weniger zu leisten haben. Hab nicht verstanden, wie das genau gehen soll. Aber dann kann ich wirklich nehmen, was ich will. Und eben ausprobieren.

Dann wäre wirklich wieder der BenQ vorne. Wobei der von der inch per pixel Dicht wohl abfällt gegenüber den beiden aktuellen LG Ultrafine Modellen. Und natürlich dem iMac 27 Zoll.
 
Luschdischerweise würde wohl der 5K-Monitor bessere "Ruckel"-Resultate liefern, als ein 4K-Monitor, wenn Du mit der "sieht aus wie" 2560x1440-Auflösung fahren wolltest. Das wurde Dir aber schon erklärt. ;)
 
Ja, ich muss mal kucken, was der Markt sonst noch an (finanzierbaren) 27er 5K hergibt.
Welche Auflösung wäre denn bei 27 Zoll und 4K die für den Mini verträglichste?

Ich muss immer wieder sagen, dass ich eigentlich recht zuversichtlich war, dass er das Pakt. Mein fünf Jahre alter Quadcore Mini hat alles gestemmt, ohne Probleme. Auch Capture One Pro. Aber der hatte es eben nur mit dem 24 Zoll Eizo CS2420 zu tun. Die 4k/5k Modelle sind da wohl ein anderes Kalibier (wegen der Skalierung).
 
Ich hätte noch den BenQ SW271 auf der Liste. Der soll ja sehr gut für Foto sein (sagt man).

Ich würde dir den BENQ PD2710qc empfehlen. Der hat zwar "nur" 2560x1440-Auflösung, aber dadurch hat der Mac eben weniger zu tun mit der Skalierung.

Einen bezahlbaren 5K gibt es eigentlich nur bei iiyama mit dem PROLITE XB2779QQS-S1
 
  • Gefällt mir
Reaktionen: zeitlos
...wenn du ganz sicher gehen willst, häng‘ eine eGPU dran. Die machen zwar momentan auch Probleme dank Apples verbocktem Firmwareupdate, aber es gibt passable Workarounds (eGPU erst 20 sek. nach dem Mini einschalten).
 
  • Gefällt mir
Reaktionen: FarmLife
Ja, ich muss mal kucken, was der Markt sonst noch an (finanzierbaren) 27er 5K hergibt.
Welche Auflösung wäre denn bei 27 Zoll und 4K die für den Mini verträglichste?

Die native Auflösung, also 4K und nicht eine Auflösung wählen, die heißt „Sieht aus wie...“, also keine skalierten Auflösungen fahren.

Andere Auflösungen, die relativ problemlos sind, sind welche, die ganzzahlige, grade, vielfache der 4k-Auflösung sind. Dann hat die CPU beim umrechnen nämlich weniger zu tun. Im Gegensatz zur Windows-und Linux-/Unix-Welt wird bei macOS auch die Skalierung von der GPU berechnet, daher erscheint die Grafik langsamer und es kommt zu den Rucklern. macOS sagt sich halt folgerichtig, dass das was mit der Anzeige auf dem Bildschirm zu tun hat und das hat die Grafikkarte zu berechnen. Man kann sich natürlich drüber streiten ob die Skalierung schon ein Job für die GPU ist wie es bei macOS praktiziert wird oder noch ein Job für die CPU wie es bei Windows/Linux/Unix umgesetzt ist. Da wir aber damit leben müssen, wie es Apple gelöst hat, würde eine Diskussion diesbezüglich keinen praktischen Nutzen haben.
 
  • Gefällt mir
Reaktionen: BlueFalcon und zeitlos
Danke für die Erklärung! Ja, es leuchtet im Prinzip ja ein. Einzig dass man den aktuellen Mini mit einer Grafikleistung versieht, die nicht mal reicht einen 4K Monitor anzutreiben... (ich rede ich von irgendwelchen Hochtrabenden Profiprogrammen => wobei er das - rein von der Prozessorleistung – wohl wieder schaffen würde ;)) Na ja... ;)

Aber passt. :)

Ich habe jetzt noch mal eine Nacht drüber geschlafen und bin zu dem Schluss gekommen, nichts zu überstürzen. 4K wäre schon schön. Man sieht schon mehr auf den ersten Blick. Die Frage ist halt, wie lebensnotwendig ist es für die Bildbearbeitung als Hobbyist. Zumal EIZO, die ja davon leben, sogar 2020 einen neuen 27 Zoll Monitor zur Bildbearbeitung rausbringen, der kein 4k hat.

Entweder die gehen den Bach runter, weil sie eine wichtige Neuerung fast verpennen (außer im Hochpreissegment 4900,- Euro bzw. bei ihren Büromonitoren => warum 4k fürs Büro aber nicht für die Bildbearbeitung?) oder sie wissen, was sie tun und der Profibildbearbeiter fragt 4k noch nicht nach.

Oder die ganzen Bildbearbeiter sitzen an Mac minis... ;)
 
Hochwertiger Monitor für Bildbearbeitung, 4K und bezahlbar:

Nach meinem Kenntnisstand gibt es derzeit in dem Bereich ohnehin nichts bezahlbares - jedenfalls so wie ich bezahlbar definiere.
Die entsprechenden Monitore von Eizo und NEC (PA271Q), die für Bildbearbeitung gedacht sind, kosten schon um die 1000€ (27") bzw. fangen da erst preislich an und haben noch kein 4K. Mit 4K wird es dann richtig teuer.

Vielleicht solltest du auch die Wahl von dem Farbraum abhängig machen, mit dem du arbeitest... du kannst ja z.B. auch mal auf der Seite Prad.de (u.a. im Forum rumstöbern) für Anregungen etc.

Edit:
Irgendwo hatte ibeim überfliegen 4k/5K und "mehr Platz" gelesen:
Wenn du den Monitor mit der entsprechenden Mac-Skalierung betreibst, hast du nicht mehr Platz. Die Schrift etc. ist aber feiner aufgelöst bzw. schärfer. Das hatten dir aber glaube ich schon andere versucht zu erklären. Ohne Skalierung hast du wirklich mehr Platz aber die Schrift wird dir vermutlich häufig zu klein sein etc.

Du solltest dir über deine Prioritäten klar werden.
 
  • Gefällt mir
Reaktionen: zeitlos
Danke für die Erklärung! Ja, es leuchtet im Prinzip ja ein. Einzig dass man den aktuellen Mini mit einer Grafikleistung versieht, die nicht mal reicht einen 4K Monitor anzutreiben... (ich rede ich von irgendwelchen Hochtrabenden Profiprogrammen => wobei er das - rein von der Prozessorleistung – wohl wieder schaffen würde ;)) Na ja... ;)

Aber passt. :)

Ich habe jetzt noch mal eine Nacht drüber geschlafen und bin zu dem Schluss gekommen, nichts zu überstürzen. 4K wäre schon schön. Man sieht schon mehr auf den ersten Blick. Die Frage ist halt, wie lebensnotwendig ist es für die Bildbearbeitung als Hobbyist. Zumal EIZO, die ja davon leben, sogar 2020 einen neuen 27 Zoll Monitor zur Bildbearbeitung rausbringen, der kein 4k hat.

Entweder die gehen den Bach runter, weil sie eine wichtige Neuerung fast verpennen (außer im Hochpreissegment 4900,- Euro bzw. bei ihren Büromonitoren => warum 4k fürs Büro aber nicht für die Bildbearbeitung?) oder sie wissen, was sie tun und der Profibildbearbeiter fragt 4k noch nicht nach.

Oder die ganzen Bildbearbeiter sitzen an Mac minis... ;)

Die Profibildbearbeiter nutzen keine 4K-Monitore, zumindest nicht wenn sie auf der Mac-Plattform tätig sind, denn sie wissen das die Darstellung im MacOS für eine andere Auflösung optimiert sind. Ihnen ist bekannt das bei Apple-Rechnern der Sweetspot bei der Darstellung bei 110ppi oder eines vielfachen dessen liegt, weswegen Apple zum Beispiel mit der 5K-Auflösung (5120x2880) bei seinen iMacs arbeitet und auch solche Bildschirme empfiehlt. Bei Windows-Rechnern liegt der Sweetspot im übrigen bei etwa 96ppi bzw. 192ppi bei vergleichbarer Retinadarstellung.

Die Leistung eines Mac mini reicht im übrigen nicht nur für einen 4K-Monitor, sondern auch für einen 5K. Deswegen braucht man sich in der Hinsicht keine Gedanken machen. Was man jedoch bedenken sollte ist eben die Darstellung auf einem solchen Monitor, denn nativ betrieben ist das Userinterface z.B. auf einem 27" Monitor bei 4K schon reichlich klein, bei einem 5K winzig. Deswegen kommt ja die Skalierung "Sieht aus wie" zum Zuge, welche dann die interne GPU zum arbeiten bringt. Da das skalieren in ganzzahligen (x2) für die GPU weniger Leistung bedarf ist hier also die 5K-Variante die bessere Wahl (5120x2880 /2 = 2560x1440), weil hier die GPU weniger beansprucht wird.
 
Im Gegensatz zur Windows-und Linux-/Unix-Welt wird bei macOS auch die Skalierung von der GPU berechnet, daher erscheint die Grafik langsamer und es kommt zu den Rucklern.
Ich denke, dass die Skalierung unter Windows ebenfalls mittels GPU ausgeführt wird. Dort werden nur komplett andere Ansätze verfolgt, die ressourcenschonender sind (aber dafür AFAIK auch nur richtig gut funktionieren, wenn Anwendungen auch mit entsprechenden Frameworks (*) gebaut sind bzw. dies berücksichtigen => offenbar bei vielen Windows-Anwendungen nicht der Fall, Altlasten usw.). Der Apple Ansatz setzt eben GPU-Leistung voraus (insb. bei suboptimaler Skalierung, wie schon mehrfahch hier im Thread erläutert) aber die Anpassung für Entwickler ist vermutlich einfacher.


(*)
Ich glaube Windows Presentation Foundation (WPF) gehört dazu und gibt es schon ziemlich lange. Sorry, dass ich mich mit Windows beschäftigt habe, ist ewig her, falls ich BS schreibe...
 
Photoshop war lange so ein Kandidat, welcher nicht für HighDPI optimiert war ... Das war schon eher peinlich für Adobe. Aber gut, die haben in den letzten Jahren viele Böcke geschossen. Ansonsten sinds schon eher Exoten, welche diese Unterstützung nicht bieten. Benutzbar sind sie dennoch - aber halt mit sehr kleiner GUI.
 
Eine GPU ist bei Skalierung JEDER CPU überlegen. Ja, auch die Intel-iGPU-Gurke. Könnt ihr ja gerne austesten, in dem ihr mal in den sicheren Modus bootet, oder unter Windows den Standard-VGA-Treiber bemüht. Das ruckelt wie nix Gutes, da eben KEINE GPU benutzt wird, sondern nur der sogenannte Frame-Buffer-Modus, in dem die GPU nur rein als Timinggenerator die Signale für den Bildschirm erzeugt, und der eigentliche Bildaufbau von der CPU übernommen wird.

Das Problem des Unterschiedes bei macOS und Windows ist IMHO folgender:
Skalierung unter Windows sieht grauenhaft aus und viele alte Programme kommen damit nicht zurecht -> schneller
Skalierung unter macOS sieht sehr schön aus, und die Software spielt meist gut mit -> langsamer

Wie etwas aussieht, ist natürlich immer Geschmacksache, aber mir hat die Fontdarstellung und auch die GUI-Skalierung unter macOS immer besser gefallen.
 
Das Problem des Unterschiedes bei macOS und Windows ist IMHO folgender:
Skalierung unter Windows sieht grauenhaft aus und viele alte Programme kommen damit nicht zurecht -> schneller
Skalierung unter macOS sieht sehr schön aus, und die Software spielt meist gut mit -> langsamer
Das ist ja in etwas das, was ich geschrieben habe.
Wenn die Anwendungen unter Windows für Skalierung ausgelegt sind, dann ist grausam sicherlich übertrieben. Grausam sind aber die ganzen Altanwendungen oder auch neuen Anwendungen, die eben WPF etc. nicht so nutzen, wie von MS gewünscht.
Das liegt aber auch daran, dass bei Windows viel selterner alte Zöpfe abgeschnitten werden. Bei Apple hingegen ständig und Entwickler und Anwender sind daran gewöhnt. Hat alles Vor- und Nachteile.
 
  • Gefällt mir
Reaktionen: electricdawn
Ich hänge mich hier einfach mal mit 2 Fragen dran ... wenn ich es richtig verstanden habe, gibt es bei den Auflösungen 3440*1440 (34 Zoll) oder 3840x1600 (38 Zoll) kein "Lag-Problem" im Desktop, oder? .. Und kann der Mac Mini (i5/i7) die Apple Arcade Spiele-Flatrate ordentlich darstellen?
 
gibt es bei den Auflösungen 3440*1440 (34 Zoll) oder 3840x1600 (38 Zoll) kein "Lag-Problem" im Desktop
Diese Auflösungen werden 1:1 betrieben, also ohne HiDPI. Daher gibt es da keine Skalierung und daher auch kein Ruckelproblem.

Skalierung unter Windows sieht grauenhaft aus und viele alte Programme kommen damit nicht zurecht -> schneller
Skalierung unter macOS sieht sehr schön aus, und die Software spielt meist gut mit -> langsamer

Der technische Unterschied ist "Bitmap" (MacOS) vs. "Vektor" (Windows). Grundsätzlich ist die Vektordarstellung der Bitmapdarstellung überlegen, allerdings auch aufwändiger, weil alle Bildelemente jedesmal gerendert werden müssen. Frühere GPUs waren dafür nicht schnell genug, daher ist auch Windows erst sehr spät umgestiegen. Alte Anwendungen nutzen bspw. noch Bitmapschriften, und da sieht die Skalierung dann eben schlecht aus. MacOS benötigt statt dessen sehr viele Varianten der im Programm genutzten Bitmaps, bei den Icons beispielsweise bis zu 512x512 Pixeln, die alle vorgerendert sein müssen und die App vergrößern.

Die Windows-Skalierung ist also nicht schneller, aber sie kommt wegen der Vektordarstellung praktisch mit jeder Auflösung zurecht. Bei macOS wird für die Darstellung das jeweils passendste Bitmap gewählt. Das kann wegen der Detailtiefe besser aussehen, ist aber nicht so gut für stufenlose Auflösungen geeignet - und erzeugt eben erhöhten Aufwand, wenn ein internes 5k-Bild auf 4k umgerechnet werden soll, weil dabei Pixel jeweils teilweise zu einem neuen Pixel zusammengerechnet werden. Windows hingegen kennt keinen Unterschied zwischen internem und dargestellten Bild, die Skalierung wird während des Renderings ausgeführt. Die Sklaierung bei "alten" Windows-Programmen ist über die Jahre übrigens besser geworden, weil Windows da inzwischen einen ähnlichen Aufwand treibt wie macOS bei HiDPI.
 
  • Gefällt mir
Reaktionen: maba_de und zeitlos
Also ich benutze täglich Win10 in der neuesten Version. Da merke ich nicht, dass es bei alten Programmen irgendwie "schöner" geworden wäre... Na ja. :noplan:
 
Zurück
Oben Unten