Die ChatGPT-Ausgabe ist für mich kein Nachweis oder Beweis, da ich ein LLM nicht als Wissensdatenbank ansehe. Sorry. Ich recherchiere sowas immer nochmals anders nach, wenn ich was anders in Erinnerung habe (so wie hier)
Dennoch: die Argumentation macht natürlich Sinn: wenn Einstellung vorhanden, dann Ausgabe so
Selbst Infos aus Wikipedia ist nicht immer korrekt (das beste Beispiel seit über 10 Jahren ist der Artikel zu "blend modes" in Grafikprogrammen im Abschnitt zu "Soft Light". Da wird davon gesprochen, dass der Photoshop-Algo eine "Diskontinuität hätte, was allerdings vollkommen falsch ist. Nur will das keine der Admins bei Wikipedia glauben... 
https://en.wikipedia.org/wiki/Blend_modes)
Wenn das ATV alles upscaled, dann muss der Algorithmus aber deutlich schlechter sein, als das was fx-upscale über die Metal-Engine bietet. Das gleiche Video in bspw 720x576 auf einem fhd-Fernseher ausgegeben sieht deutlich schlechter aus, als das mit fx-upscale vorher hochskalierte Bild.
Der einzige "Beweis" wäre jetzt, wenn man das ATV an einen Monitor per HDMI anschließt. Am Monitor sieht man regelmäßig, welche Auflösung das Signal hat. Am TV sieht man das nicht (so zumindest bei mir). In einer ruhigen Phase, werde ich also mal mein ATV an meinen Monitor anschließen und ein 1280x720 Video und eines mit 1920x1080
Zu den Algorithmen:
fhd auf uhd skalieren ist eigentlich am besten, wenn man "Supersampling" macht. Da wird jede Dimension einfach verdoppelt so dass 1 fhd-Pixel auf 4 uhd "skaliert" wird.
Vorteil dabei: du siehst das original fhd Video, ohne irgendwelche aliasing Artefakte. Jedes Hochskalieren erzeugt immer aliasing Artefakte, je nach Algo mal mehr mal weniger. Auch die Metal-Engine. Aber eben sehr wenige Artefakte.
ich bin mir ziemlich sicher, dass weder das ATV noch ein Mac zum skalieren, diese Metal-Engine nimmt. Die ist explizit dafür entwickelt worden, von Gaming-Apps angesprochen zu werden, um Raytracing in 1080p zu machen und dann upscalen zu lassen, als direkt in 4k raytracing zu machen. Diese API ist keine originäre Video-API. fx-upscale klinkt nur die Metal-Engine in einen Videoworkflow ein. Wäre die Metal-Engine für alle Videoskalierungen vorhanden, dann würd es ne API explizit dafür auch geben.
Dass du ein HD (1280x720?) " schärfer / top" empfindest liegt wahrscheinlich eher daran, dass die Schärfe-Einstellung am TV zu hoch ist für 1280x720. Da "Schärfung" eigentlich nur Kontrasterhöhung benachbarter Pixel ist, und die weniger Pixel bei HD als bei FHD auch größer dargestellt werden, sind diese kontrastverstärkten Pixel auch deutlicher sichtbar.
Richtig vergleichen kannst du da nur, wenn du die Schärfeeinstellung im TV auf 0 stellst. Das ist auch eigentlich die beste Einstellung. Wenn man Bilder schärft, sollte man das immer an die Pixel-Auflösung und Darstellungsgröße anpassen.
Es ist aber halt so, dass man sich durch die vielen aggressiven Einstellungen der TV-Hersteller und in den Show-Rooms der Händler an Überschärfung, extreme Kontraste, viel zu viele Schatten und übersättigte Farben gewöhnt hat. Und dazu auch meist an ein extrem kalten TV-Bild mit locker über 9000K
Hast du deinen TV schon mal kalibriert oder (bei den neueren TV) auf "Film-Mode" eingestellt. Ältere Samsung nennen bspw die 6500K, mit denen alle Spielfilm aufgezeichnet werden "Warm 2". Wenn man das zum ersten Mal einstellt, wirkt das Bild gelbstichig. Es zeigt aber nur die Farben so, wie sie aufgenommen wurde. Die Figuren und Kreaturen in Avatar sind nicht nur blau, sondern haben viele Grüntöne dabei. Passt man dann noch Kontrast und Schwarzpunkt an, sieht man bei Startreck auch Sterne und nicht nur schwarzes Weltall und bei Studio-TV hat Stefan Raab keine fast weiß glänzenden Stirn durch die Reflexion des Lichtes, sondern es ist eben Hautfarben.
Ergo: was dir "besser" gefällt ist wichtig. Das muss aber nicht bedeuten, dass irgendein Algo auch "besser" ist, als der andere.