Ultrawide Monitor - ich blicke nicht durch

Ich habe meinen 34“ jetzt schon ganz schön lange und mich stört die Schrift überhaupt nicht obwohl ich Retina Bildschirme kenne. Wenn man die Einstellungen zum Fontrendering auf den alten Modus stellt, geht es auch sehr gut.
Dann gehörst du halt zu den wenigen. Ich habe ja extra nicht geschrieben, dass es für alle Menschen so gilt.
 
  • Gefällt mir
Reaktionen: iWetterstein
Bisher hieß es ja eigentlich immer: Schließ einen Mac nie mit HDMI an, das gibt nur Probleme.
Ich würde mich in dieser Reihenfolge umsehen: Thunderbolt, Display Port.
Wir reden hier gerade vom M1. Der halt nun mal leider bei einigen Monitor gerade mit USB-C/Thunderbolt/DP Probleme. Ist leider so. Ein Muster ist nicht erkennbar. Zumindest nicht für mich.

Soll ich also nun, obwohl ich weiß, dass es beim M1 mit HDMI läuft und mit USB-C/TB/DP nicht immer läuft, dennoch USB-C/TB/DP empfehlen, weil es "bisher so hieß"? Fändest du das etwa einen sinnvollen Ratschlag?

Entweder hast du keinen M1-Rechner oder gehörst zu den Glücklichen, bei denen der Monitor mit dem M1 auch bei USB-C/TB/DP läuft. Andernfalls ist deine präferierte Reihenfolge leider nur Vermutung.
 
  • Gefällt mir
Reaktionen: iWetterstein
Bei den LG Monitoren 32UN880 und 34WK95WU läuft es super mit USB-C. Bei den ist der USB-C auch eine TB3 Schnittstelle. Bei dem MSIPS341WU leider eine DP Schnittstelle.

Dienstag weiß ich ob dies das Problem ist. BIs 4K ist HDMI eine Alternative, da drüber leider nicht.
 
aber bei 34" sind 1440 nunmal bescheiden
Das sagst Du.
Solange es keinen Monitor gibt, bei dem dann ausgegeben wird: “Sieht aus wie 3440x1440“, sehe ich keinen Grund umzusteigen. Alles darunter ist einfach zu wenig Platz.
 
Also nativ wäre das eine schöne Auflösung, aber dann bei 34“ eher zu klein.
Du vergisst die Skalierung von macOS. Der besagte 34" 21:9 mit 5120x2160 hat eine HiDPI-Auflösung, die dann von macOS skaliert wird auf unter anderem deine 3440x1440. Das sieht dann definitiv schärfer und eher "wie gedruckt" aus als auf deinem Monitor. Grund: Bei der Skalierung von macOS wird immer die native Auflösung an den Monitor gegeben. Das ist eine andere Art der Skalierung, als wenn schon wie bei non-Retina/HiDPI-Monitoren, das Bild in der reduzierten, herunter skalierten Auslösung auf den Monitor gegeben wird und der das dann auf seine physikalisch vorhandenen Pixel hoch rechnen muss. Das ergibt immer Matsch.
 
  • Gefällt mir
Reaktionen: iWetterstein
Entweder hast du keinen M1-Rechner
Nein, habe ich nicht. Richtig.
Mich wundert es eben nur, das auf einmal HDMI am Mac richtig funktioniert.

Solange ich keine virtuellen Intel Maschinen laufen lassen kann, bleibe ich auch beim Intel Mac.
 
Das sagst Du.
Solange es keinen Monitor gibt, bei dem dann ausgegeben wird: “Sieht aus wie 3440x1440“, sehe ich keinen Grund umzusteigen. Alles darunter ist einfach zu wenig Platz.
Ja, sage ich. Weil ich durch das Posting weiter oben nun weiß, dass es solche Monitore gibt.
 
Der besagte 33" 21:9 mit 5120x2160 hat eine HiDPI-Auflösung, die dann von macOS skaliert wird auf unter anderem deine 3440x1440.
Wie wird denn das skaliert? Das ist ja ein Verhältnis von 1.5. Wie geht das?
 
Solange ich keine virtuellen Intel Maschinen laufen lassen kann, bleibe ich auch beim Intel Mac.
Das ist ja auch ein ganz anderes Thema, als das hier diskutierte Monitorthema mit dem M1. Wenn du auf Windows angewiesen bist, musst du halt bei den bisherigen Intel-Rechner hängen bleiben, oder hoffen, dass Windows on ARM sauber funktioniert und erscheint.
 
@carsten_h

Ich verstehe User ja nicht, die noch ältere Hardware haben, sich nicht mit aktueller Hardware auseinandersetzen, aber immer vehement etwas zu sagen haben....
 
Wie wird denn das skaliert? Das ist ja ein Verhältnis von 1.5. Wie geht das?
Ja, ich habe mir schon gedacht, dass es dir nicht ganz bekannt ist, wie die Skalierung von macOS funktioniert, da du halt einen non-HiDPI-Monitor hast.

Die "sieht aus wie..."-Skalierung erfolgt in 2 Schritten:

1) das gesamte Bild wird intern in einer 2-fachen Auflösung gerendert, wie diejenige, die unter "sieht aus wie..." eingestellt wurde. Also z.B. bei einer "sieht aus wie..." Einstellung mit 2160x1440 wird gesamte Montorbild intern als 5120x2880 gerendert. Das ist auch der Grund, warum alle grafischen Elemente eines Retina-fähigen Programms immer auch in einer 2-fachen Auslösung zusätzlich vorliegen. So sind auch grafische Elemente rattenscharf.

2) Dieses "große" Monitorbild wird in einem zweiten Schritt runter gerechnet auf die native Auflösung des Monitors, also bei einem 4K 16:9 dann auf 3840x2160 und so ausgegeben. Da das runter rechnen des Bildes mathematisch gesehen keine zusätzlichen Pixel interpolieren muss, hat das Ergebnis deutlich weniger Schärfeverluste, als die bisherige Art der monitorinterne Skalierung.

Die auf non-Reine/HiDPI statt findende Skalierung funktioniert ganz anders. Das ist die Art, wie Jahrzehntelang die Bildausgabe skaliert wurde.

1) Das gesamte Bild wird in der eingestellten, reduzierten Auflösung gerendert, also in diesem Beispiel mit 2160x1440 und auch in dieser Auflösung an den Monitor ausgegeben. Grafische Elenden werden ebenso aus der 1-fachen Auflösung runter gerechnet

2) Der Monitor muss nun dieses Bild auf seine physikalisch vorhandenen Pixel hoch rechnen, also hier auf eben 3840x2160. Bei Hochrechnen müssen allerdings zusätzliche Pixel interpoliert errechnet werden. Das führt immer zu Unschärfen. Und diese Art der Unschärfe ist dir bekannt.
Grafische Elemente müssen nun von der runter gerechneten Größe wieder hoch skaliert werden, was definitiv zu matschigen grafischen Elementen führt, die sogar schlechter aussehen, als die im App-Bundle vorliegenden Dateien.

Fazit:

Ein größer geändertes Bild runter rechnen ergibt immer einen schärferen Eindruck, als ein kleineres Bild hoch skalieren.

Edit:
Infos zu grafischen Elementen ergänzt.
 
  • Gefällt mir
Reaktionen: iWetterstein
Ein größer geändertes Bild runter rechnen ergibt immer einen schärferen Eindruck, als ein kleineres Bild hoch skalieren.
Mir ist schon bewußt, das das Bild in doppelter Auflösung “gezeichnet“ wird und dann heruntergerechnet.
Für 3440x1440 wird es also auf 6880x2880 gezeichnet. Das muß jetzt auf 5120x2160 heruntergerechnet werden. Das paßt doch auch nicht genau, da das Verhältnis 1,3 ist.
Wie passen da die Pixel zusammen. Drittel Pixel gibt es doch nicht, oder?
 
Ja, ich habe mir schon gedacht, dass es dir nicht ganz bekannt ist, wie die Skalierung von macOS funktioniert
Doch ich weiß das. Das ist ja keine neue Methode. So haben wir schon vor 15 Jahren in einem Navigationssystem die Bilder berechnet, damit das alles schön aussieht.
 
Mir ist schon bewußt, das das Bild in doppelter Auflösung “gezeichnet“ wird und dann heruntergerechnet.
Für 3440x1440 wird es also auf 6880x2880 gezeichnet. Das muß jetzt auf 5120x2160 heruntergerechnet werden. Das paßt doch auch nicht genau, da das Verhältnis 1,3 ist.
Wie passen da die Pixel zusammen. Drittel Pixel gibt es doch nicht, oder?
Bei nicht ganzzahligen Verhältnissen wird eben interpoliert…

Ist seit einigen Jahren übrigens Default bei (einigen? allen?) MacBooks.
 
Vielen Dank an Alle die zwar von meinen Dummy-Fragen genervt sind, aber trotzdem geduldig versuchen zu helfen!!!

Aber ich fühle mich gerade zurückversetzt in die Zeit von vor ca.10 Jahren,
als ich aus dem gleichen Gefühl heraus von PC auf Mac gewechselt bin.
Ich habe null nerdiges Interesse irgendwelche Dinge versuchen zu müssen die dann vielleicht auch nicht richtig funktionieren!
Ein Mac hat zu funktionieren, Punkt!!!
Sonst kann ich wieder anfangen
mir in irgendwelchen Hinterhofbastelbuden einen PC zusammenfriemeln zu lassen.

Wie gesagt habe ich einen 27" iMac Mitte 2011
der aber bei manchen Dingen sehr langsam geworden ist.
Es tut mir jetzt einfach leid,
zusammen mit dem Rechner,
auch noch zwangsläufig den Bildschirm "entsorgen" zu müssen.
Und daher wollte ich auf einen Mac Mini umsteigen,
aber ich glaube das wird nichts.

Hoffe jetzt auf den 3X" iMac.
 
Für 3440x1440 wird es also auf 6880x2880 gezeichnet. Das muß jetzt auf 5120x2160 heruntergerechnet werden. Das paßt doch auch nicht genau, da das Verhältnis 1,3 ist.
Wie passen da die Pixel zusammen. Drittel Pixel gibt es doch nicht, oder?
Ja und? Wo ist das Problem? Du schreibst doch selbst, dass du sogar beruflich mit solchen Dinge schon zu tun hattest. Glaubst du auch an so einen Mythos von angeblich nur sinnvollem Skalieren bei ganzzahligen Faktoren?
 
Bei nicht ganzzahligen Verhältnissen wird eben interpoliert…
wenn man es gut machen will, dann interpoliert man auch bei ganzzahligen Verhältnissen.

Stelle dir nur mal ein Bild vor, das abwechselnd aus weißen und schwarzen Pixeln, schachbrettartig, besteht. Wenn du mit dem ganzzahligen Faktor von 2 runter skalierst, ohne zu interpolieren und nur, so wie es implizit immer gerne angenommen wird, nur jeden 2. Pixel verwenden würdest, dann hättest entweder ein ganz scharzes oder ganz weißes oder ein Bild mit zeilenweise schwarzen und weißen Streifen, Je nach dem wo du anfängst weg zu lassen und wie du bei einem Zeilensprung verfährst und ob die Anzahl der Pixel je Dimension gerade oder ungerade ist.
 
  • Gefällt mir
Reaktionen: iWetterstein
wenn man es gut machen will, dann interpoliert man auch bei ganzzahligen Verhältnissen.

Stelle dir nur mal ein Bild vor, das abwechselnd aus weißen und schwarzen Pixeln, schachbrettartig, besteht. Wenn du mit dem ganzzahligen Faktor von 2 runter skalierst, ohne zu interpolieren und nur, so wie es implizit immer gerne angenommen wird, nur jeden 2. Pixel verwenden würdest, dann hättest entweder ein ganz scharzes oder ganz weißes oder ein Bild mit zeilenweise schwarzen und weißen Streifen, Je nach dem wo du anfängst weg zu lassen und wie du bei einem Zeilensprung verfährst und ob die Anzahl der Pixel je Dimension gerade oder ungerade ist.
Ja, klar. Nur in dem "Standard-Retina-Fall @2x" entspricht die Auflösung des internen HiDPI-Bildes ja gerade der nativen Auflösung des Displays, da muss dann ja gar nichts mehr umgerechnet werden. Das meinte ich. :)
 
Danke für die ganzen Erklärungen @lisanet echt interessant wie das ganze funktioniert. Aber das HiDPI versteh ich noch nicht ganz, ist das gleichzusetzen mit dem begriff Retina und den 220dpi aus deinem anderen Beitrag?
 
Aber das HiDPI versteh ich noch nicht ganz, ist das gleichzusetzen mit dem begriff Retina und den 220dpi aus deinem anderen Beitrag?
Nein. Den Begriff Retina hat Apple eingeführt. Apple verwendet seit Jahren dafür nur Displays ab ca. 220 dpi. Die gibt es so kaum von anderen Marken. Das was dem noch am nähesten kommt sind die 4K Monitore (27"/32"/34") mit um die 150 dpi. Das wird "landläufig" als HiDPI bezeichnet. WQHD mit 2560x1440 oder 3440x1440 sind keine HiDPI-Monitore.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iWetterstein und Tealk
Zurück
Oben Unten