Noch einen kleinen Hinweis bezüglich dessen was hier ständig angesprochen aber nicht so genannt wird: das (runter)skalieren des Bildes.
Das macht die GPU und tatsächlich ist das gar nicht mal so enorm arbeitsintensiv wie man vielleicht denken mag (hochskalieren frisst mehr Ressourcen). Wobei "nicht arbeitsintensiv" halt schnell mal doch arbeitsintensiv werden kann, wenn man Metriken für Full HD auf 8K anwendet, das ja immerhin 16 mal so viele Pixel schubsen bedeutet, und dies dann mit schwachbrüstigen iGPUs kombiniert, wie im MBP der Fall.
Wieso ist das nicht so arbeitsintensiv? Weil die gängigen Interpolationsverfahren direkt "in" die GPU gegossen sind. Wir reden hier von Bilinear (RGB oder Luma), manchmal Nearest Neighbour (oft fürs Chroma), seltenst Bicubic.
Problem: alle sind sie scheiße. Aber dafür halt schnell...
(
Bilinear,
was besseres)
Fakt ist, bei einem Video Player der keine Auswahl des downscale Algorithmus zulässt ist es immer eines der genannten Verfahren und alle sind sie "so schlecht", dass ein 8K Video auf einem MBP danach schlechter aussieht, als bei einem Video das die native Auflösung hat oder einen vorteilhafteren Skalierfaktor.
Bessere Auflösung des Videos resultiert nicht in besserer Bildqualität wenn diese Auflösung nicht explizit die deines Bildschirms trifft. Wenn hoch/runterskaliert werden muss wird es bei den genannten Verfahren, in Abhängigkeit des Skalierfaktors, immer schlechter. Full HD auf MBP Auflösung hochskaliert kann besser aussehen, als 4K/8K runterskaliert.
Hierbei auch nicht vergessen, dass Retina MBPs auf größere Surfaces rendern, wenn man nicht den Default nutzt: hat man "1440x900" eingestellt, dann rendert (und skaliert) OSX erst das Video auf 2880x1800 und skaliert das dann nochmal runter auf die native Auflösung des eingebauten Panels (2560x1600).
Natürlich gibt es auch gute Skalierverfahen, aber bei diesen Auflösungen und lediglich iGPUs kann man das im Prinzip vergessen, sofern man nicht auf pfeiffende Rechner steht.