Gibt es dann Grenzwerte wo man sagen kann, ab da 80 cm und xydpi kann man sich entspannt zurücklegen?
Diese Grenzwerte habe ich ja angegeben. Die basieren auf der Annahme, das ein menschliches Auge Objekte von 1 Winkelminute unterscheiden kann. Es gibt aber auch Angaben, die sagen, dass es 2 Winkleminuten sein müssten oder auch weniger als 1. Es ist eben mit dem menschlichen Körper nicht so, dass es da harte Grenzen gibt. Dennoch sind diese Werte eine gute Annäherung. Und nochmal. Das geht nicht abrupt. Wenn bei 80 cm die Grenzauflösung 108 dpi beträgt, dann sind die 110 dpi eines 34" UltraWide (3440x1440) halt noch im Bereich des "merkt man" und die 137 dpi eines 32" 4K 16:9 eben schon bemerkbar besser, die 163 dpi eine 27" 4K dann faktisch nicht mehr unterscheidbar von höheren Auflösungen wie einem iMac 27" 5K.
Wenn dir also jemand sagt, er würde auf einem 55 Zoll TV mit 4K aus einem Sitzabastand von 3,5 / 4 Metern einen Unterschied zu einem 55 Zoll FullHD TV sehen, dann wird das mit an Sicherheit grenzender Wahrscheinlichkeit nicht so sein, sondern sein "ich kann das sehen" wird durch das Wissen von 4K beeinflusst.
Grund: 55" mit 4K (3840x2160) = 80 dpi, 55" mit FullHD (12920x1080) = 40 dpi. Bei 1 Winkelminute ergäbe bei 3,5 Metern das eine Grenzauflösung von 24 dpi. Und da liegen beide TV-Geräte gut drüber. Selbst bei nur 3 M Entfernung sind es 29 dpi Grenzauflösung.
Wie du es auch nimmst, du kannst dir WQHD auf einem 27" / 32" / 34" Monitor nicht schön rechnen. Wenn dich die Schriftglättung von macOS nicht stört ist es ja ok, aber es ist halt definitiv nicht so "gedruckt" wie höhere Auflösungen.