4k oder nicht 4k (in der Bildbearbeitung) – das ist hier die Frage!

Zu Monitoren gibt es schon diverse Threads bzgl. Auflösung.
Das Problem beim Mac ist die Art und Weise wie skaliert wird.
Sprich, wenn Du einen 4K Monitor skalierst, arbeitet die Grafikkarte im Mac schnell auf Anschlag und der Lüfter rennt los... bei allem was mehr ist als normales surfen usw. deshalb ist die 5K Retina Auflösung wiederum kein Problem, da ein gerades vielfaches der dargestellten Auflösung (sieht aus wie 2.560x1.440) was bei 27 Zoll und meist auch noch bei 32 Zoll verwendet wird.
Wenn der Mac also ein Panel in der nativen Auflösung ansprechen kann, ist das ein klarer Vorteil und deshalb haben viele eben auch einen 27er in WQHD im Einsatz.
Bevor das falsch rüberkommt: Das ist kein „automatisches“ Verhalten, es ist modellabhängig und auch davon, wie viele Monitore man betreibt und was man so macht.
Lisanet hat es ja auch schon geschrieben, beim M1 merkt man es quasi nicht und selbst beim Mini 2018 ist es nicht so, dass permanent die Lüfter laufen.
Bei den Macbooks würde ich es tendenziell häufiger vermuten, nicht zuletzt wenn das integrierte Display und der Monitor parallel genutzt werden.

Im Zweifel kann man auch mal schauen, ob die verwendeten Programme Anpassungen zulassen.
Bei mir können es die meisten Programme, so dass ich tw. sogar ohne Skalierung gearbeitet habe und dann einfach in den Programmen die Schriftart retc. vergrößert habe.
 
danke, ich finde, 32" 4k sieht gefühlt am besten aus in 3008 x 1692. extrem viel fläche & alles gut lesbar !

was mich wundert: "standard für diesen monitor" wird als 1920x1080 angezeigt, seltsam bzw nicht smart oder? da hat man fast keine fläche zur verfügung, alles ist riesig, siehe bild 1
und orig. 4k, müsste das nicht "nativ" heissen? ist so miniwinzig alles :) siehe bild 2 darunter

für detailliertere fragen (kalibr.) zum benq sw321c mach ich mal am besten ein neues thema auf?
 

Anhänge

  • IMG_2365.jpg
    IMG_2365.jpg
    91,2 KB · Aufrufe: 77
Bei ungeraden Verhältnissen wird auf eine höhere Zwischenauflösung gerendert und dann auf 4K interpoliert. So gesehen ist 4K bzw. "sieht aus wie 1080p" am effizientesten. Bei potenter Hardware macht's aber keinen praxisrelevanten Unterschied.
 
Sehr interessant. Mein iMac Late 2015 27 Zoll mit der "AMD Radeon R9 M390 2 GB" kommt immer wieder an seine Leistungsgrenzen die Grafik betreffend. Mit welcher Einstellung würde ich die Grafikkarte am wenigsten belasten? Hab bereits unter "Systemsteuerung - Monitor - gedrückte ALT Taste" die NON Retina Auflösungen probiert, aber wird gefühlt auch nicht viel schneller, z.B. Pinselfunktion in CaptureOne - abgesehen vom massiven Schärfeverlust im Vergleich zu den Retina Auflösungen.
 
  • Gefällt mir
Reaktionen: HäckMäc_2
Nochmal ein Wort zum Thema "skalieren und ganzahlige Verhältnisse"

Es ist nicht so, dass irgendwas ganzzahliges unbedingt schneller ginge. Es werden beim Skalieren mit einem Verhältnis von 1:2 ja nicht einfach nur jeder 2. Pixel weg gelsassen. Es wird genauso jeder einzelne Pixel mit einbezogen, wie bei einem Verhältnis 1:1,5 oder sonst was. Bei nicht ganzhaligen Verhätnissen werden halt ein paar Pixel mehr benötig, aber so wie viele hier schreiben und tun, dass die Rechenleistung einbrechen würde, ist es nun echt nicht. Klar gibt es einige Intel-Rechner, die nur eine integrierte GPU haben und dann mit 4K Monitoren ins Schwitzen kommen und dann den Lüfter an werfen. Und ja, es gibt auch ältere Intel Mac Minis die bei 4K @ 60 Hz Probleme haben und dann ein 30 Hz Ruckeln der GUI entsteht. Mit dem Skalieren hat das aber relativ wenig zu tun.

Mein Tipp ist daher immer: Retina verwenden und die sieht-aus-wie-Auflösung, die für den Workflow passend ist.

Edit:

Bei einem 4K Monitor wird in der Auflösung 1920 x 1080 übrigens gar nicht skaliert.
 
Bei einem 4K Monitor wird in der Auflösung 1920 x 1080 übrigens gar nicht skaliert.
Das ist ja gerade der Punkt, weshalb diese Kombination eben doch recheneffizienter ist. Jeder Intel-Mini-Besitzer wird dir ein Lied davon singen. ;)
 
Das ist ja gerade der Punkt, weshalb diese Kombination eben doch recheneffizienter ist. Jeder Intel-Mini-Besitzer wird dir ein Lied davon singen. ;)

Was sollen das für Effekte sein? 60Hz vs. 30Hz? Skalieren allein wird es nicht sein. Es wird doch nicht der komplette Bildschirminhalt 60 mal die Sekunde skaliert, sondern nur die Teile, die sich verändert haben.

Jedenfalls ist diese Gerede von Ganzahligen Vielfachen einfach nicht passend und vermittelt ein Bild, dass man Retina-fähige Macs in einer "halben Retina-Auflösung" betreiben müsse.
 
Was sollen das für Effekte sein? 60Hz vs. 30Hz? Skalieren allein wird es nicht sein. Es wird doch nicht der komplette Bildschirminhalt 60 mal die Sekunde skaliert, sondern nur die Teile, die sich verändert haben.

Jedenfalls ist diese Gerede von Ganzahligen Vielfachen einfach nicht passend und vermittelt ein Bild, dass man Retina-fähige Macs in einer "halben Retina-Auflösung" betreiben müsse.
Natürlich muss man das nicht, macht Apple zumindest bei den Laptops ja standardmäßig auch seit längerem nicht mehr.

Auf schwachen Systemen (-> Intel UHD) ruckelt das UI aber sonst, was sich auflösungsabhängig verschlimmert. 3008 x 1692 HiDPI sind 20MPixel, also mal eben Faktor 2.5 mehr als 1920x1080 HiDPI (oder nativ 4K, was ja exakt dasselbe ist).
 
ok. es gibt einen haken, egal ob m1 oder intel: ich kauf mir einen 32“ 4k um dann die empfohlene „standard auflösung“ laut display settings auf 1920 zu setzen. brutal kleine fläche, die man dann hätte, für die augen aber angenehm!

warum wirds ab 4k nur so kompliziert? :)
mein alter 27“ mit 2560x1440 sieht super aus, was fläche/schärfe betrifft und ich brauche nur die „empfohlene“ standard schaltfläche in den display settings zu drücken, damit es perfekt aussieht. kein gemurkse :)
 
ok. es gibt einen haken, egal ob m1 oder intel: ich kauf mir einen 32“ 4k um dann die empfohlene „standard auflösung“ laut display settings auf 1920 zu setzen. brutal kleine fläche, die man dann hätte, für die augen aber angenehm!
Und warum stellst du nicht eine anderen Auflösung ein? Weil Forenteilnehmer so tun, als wäre das was schlechtes? Hast du irgendwelche Probleme, wenn du eine andere Auflösung wählst?
 
Beim M1 ist das „2560x1440“ kein Problem bei einem 4k Monitor
 
Und warum stellst du nicht eine anderen Auflösung ein? Weil Forenteilnehmer so tun, als wäre das was schlechtes? Hast du irgendwelche Probleme, wenn du eine andere Auflösung wählst?
ich probiere gern empfehlungen aus und heute war es eure empfehlung 1920 zu nehmen. problem hab ich mit big sur: es will mir 1920 als standard für einen 32“ empfehlen. kapier ich nich. die apple xdr werden nicht mit 2560 betrieben werden nehme ich an.
 
Ich habe hier den SW320 stehen und fahre den auf 3008x1692 an einem 2018er Mac mini. Ohne eGPU war das schon nicht wirklich schön…dachte auch, ich schau mir das erst einmal an bevor ich sinnlos soviel Kohle verbrenne (für's Gehäuse und die Karte), aber es ging ohne wirklich nicht.
 
zumindest nicht von mir, sondern von denen, die Skalierung als des Teufels Werk ansehen.

Kuckst du -> #19

ja, 3008px hab ich jetz 3 tage laufen mit intel mbp. passt soweit, nur der vram (8gb) ist voll, laut istatmenu, und zwar den ganzen tag mit photoshop. daher dachte ich, ich brauch 16gb vram?
 
ja, 3008px hab ich jetz 3 tage laufen mit intel mbp. passt soweit, nur der vram (8gb) ist voll, laut istatmenu, und zwar den ganzen tag mit photoshop. daher dachte ich, ich brauch 16gb vram?
RAM ist grundsätzlich dazu da, benutzt zu werden. Also lass dieses "Monitoring" von allen möglichen Werten, die machen dich nur verrückt und verleiten zu falschen Schlüssen.

Solange alles läuft und du das machen kannst was du willst, ist es doch vollkommen egal, welches Programm, welchen Speicherbedarf hat.

Wenn du unbedingt freies, unbenutzes RAM haben willst, kauf dir einen Riegel und lege ihn unters Kopfkissen ;)
 
  • Haha
  • Gefällt mir
Reaktionen: Kuddl und Tommac187
Zurück
Oben Unten