Differenzierter betrachtet… UHD (4K) ist auch imer an die entsprechende Hardware angepasst, Auflösung und Schärfe bedingen sich gegenseitig, Farbwiedergabe und und und. Ein HD TV wird die darstellbare Qualität liefern die er schaffen kann, mehr geht eben physikalisch nicht. Schaut man herruntergerechnetes 4K Material aber auf einem guten UHD TV, erkennt man im Vergleich zu Standard HD schon leichte Qualtiätsunterschiede, leichte wohlgemerkt, vor allem in der Farb und Schärfedarstellung. Dies liegt aber eben auch in der Hardware der UHDs begründet, die können oft HD Material auf UHD hochskalieren, die Qualität wird aber niemals die gleiche sein wie das urspüngliche 4K Material vor dem herunterrechnen.
Ganz abgesehen davon ist diese Umrechnerei einfach nur Resourcenverschwendung, 4K braucht Speicher satt, die Rechner müssen ordentlich arbeiten beim Umkodieren etc. Sinn macht das für mich nur in einem einzigen Fall: wenn das Material nur in 4K vorliegt, aber für HD bereitgestellt werden muss (für Beamer z.B., die einigermaßen vernünftigen 4K Beamer sind noch immer keine Schnäppchen…
). Wir haben im Studio so einige Versuche angestellt, einfach um das beste Ergebnis zu erzielen, Verluste sind beim herunterrechnen aber nicht zu vermeiden. Man kann sich ein "Bild" davon machen, wenn man einen Rechner mit Retinadisplay hat und sich ein großes Foto, welches in etwa im Format Bildschirms vorliegt, umrechnet (25%) und dann an den Bildschirm anpasst - Unterschiede wird man dann nur mit einem Retinadisplay erkennen…