Deshalb wird eine Nachbearbeitung wohl auch nicht viel bringen, da liegt @imacer mit seiner Aussage "Was an "Bildinformationen" nicht vorhanden, ist fehlt halt" völlig richtig.
Technisch gesehen richtig, praktisch auch, aber irgendwie auch nicht.
Klar, fehlende Infos sind weg. Diese Netzwerke sind aber ziemlich gut im Nachzeichnen - sofern man die dadurch verursachten, typischen Defekte nicht erkennt.
Der ganze Spaß mit "AI" Upscaling ist schon relativ alt und wird u.A. in Videoplayern live eingesetzt. Zwei Beispiele einer der vermutlich ersten Varianten, damals etwas das sich NNEDI3 nannte:
http://madshi.net/madVR/monsters.png http://madshi.net/madVR/lighthouse.png
Beachtliche Ergebnisse, wenn man bedenkt, dass NNEDI3 mal als Deinterlacer gedacht war (bzw. das auch ist). Im zweiten Bild kann man im Gras unten links auch gleich entdecken was ich mit Defekte meine. Man sieht hier deutlich Muster im Gras, welche an Grasnarben erinnern und die im Original nicht enthalten sind. Die sind zwar schön und scharf abgebildet, aber einfach nicht wirklich da. Dieses Problem haben
alle diese Verfahren.
Diese ganzen Verfahren sind überwiegend veröffentlichtes Wissen, dafür muss man nicht bezahlen. Man muss nur wissen wie man es anwendet.
Modernere Beispiele sind z.B.
FSRCNN mit einer Implementierung
hier für den Videoplayer mpv. Das sieht schon ziemlich gut aus und geht sogar schnell genug, dass ich es live verwenden kann, um mein Videomaterial auf 4K beim anschauen zu skalieren (AMD RX 580). Wenn realtime kein Kriterium ist geht optisch natürlich noch mehr. Von Google gibt es
RAISR: Rapid and Accurate Image Super-Resolution das in RAVU implementiert ist. Nicht ganz so hübsch, dafür wesentlich schneller.
Für DVD Inhalte pack ich dann gerne noch SSimSuperRes drauf, da es die typischen Artefakte gut entfernt.
Der geneigte Beobachte bemerkt, dass dies alles Verdoppler sind. Die vergrößern ein Bild/Video um einen fixen konstanten Wert, z.B. x2. Beliebige Skalierfaktoren sind hier nicht möglich, da es für jeden Faktor ein eigenes Modell bedarf. Wenn wir also etwas mit einem Verdoppler auf 1.5 vergrößern wollen, dann wird erst der Verdoppler angewendet und das Resultat wieder herunterskaliert. Das beeinträchtigt das Endresultat wieder negativ. Also bei den Skalierfaktoren aufpassen und am besten bei 2er Potenzen bleiben.
Es gibt aber übrigens auch gute Algorithmen in der nicht-AI Welt.
Hier wurde als Beispiel dieses
Ausgangsbild ca. 14x vergrößert: einmal
Bilinear (Standard in Playern wie QuickTime und VLC), einmal
EWA_Lanczos (nicht zu verwechseln mit normalem Lanczos).
Klar sind die trainierten Verfahren besser, aber diese "klassischen" sind schneller und bringen keine Dinge ins Bild ein, die dort nie drin waren. Kann man auch mögen.
Das sieht ja mal echt interessant aus! Was das wohl für Rechenleistung braucht, sicher ein guter Job für den M1.
Ne, ne...
In ein paar Generationen.