Pixeliges Video verbessern

B

Beachfreak

Aktives Mitglied
Thread Starter
Dabei seit
23.08.2011
Beiträge
119
Reaktionspunkte
21
Hallo!
Ich habe ein etwas pixeliges Familienvideo (Lange: ca. 4 Min., Auflösung 720x576). Das Video ist zwar noch "ansehbar", etwas Nachbearbeitung würde aber nicht schaden. Das Video professionell bearbeiten zu lassen lohnt sich aber nicht. Kennt daher vielleicht jemand eine kostenlose oder günstige Software, mit der man das Video selbst etwas nachbearbeiten kann? Bietet vielleicht sogar iMovie da etwas Entsprechendes?

Vielen Dank schon einmal im Voraus für jede Antwort!
Beachfreak
 
Was meinst du mit pixelig genau?

Deine (ehemalige?) VHS-Aufzeichnung bei 576i wird bei der Wiedergabe auf einem Fernseher mit 1080i mal mehr, mal wenige gut hochskaliert, ist leider aber nicht gradzahlig (540 Zeilen für 1080er Wiedergabe einfach zu verdoppeln wäre einfacher).

So oder so würde ich das Ergebnis eher »unscharf« oder »unschärfer« nennen, nicht »pixelig(er)«.
Letzteres wäre eher eine Effekt, wenn nach dem Skalieren ein Nachschärfen dazukommt. VLC hat eine »Schärfen«-Funktion für die Wiedergabe, aktuelle Fernseher auch.

Zur Sache:
Im App Store gibt es Videobearbeitungsprogramme, die eine Nachbearbeitung erlauben. Wie gut diese noch (isb. bei etwaigen kostenfreien vs. separat freischalten zu lassenden Funktionen) wirken, musst du ausprobieren.
 
  • Gefällt mir
Reaktionen: Beachfreak
Liegt das Video bereits digital vor, oder befindet es sich noch auf VHS Kassette? Dann ließe sich vermutlich durch bessere Digitalisierung mehr herausholen als an dem schon digital vorliegendem Material.
Denke, das meint auch fa66 mit
...Deine (ehemalige?) VHS-Aufzeichnung...

Generell halte ich das Format aber auf modernen und entsprechend großen Fernsehern für eine visuelle Zumutung. ;)

iMovie bietet eine Verbesserungsfunktion, kannst ja mal anwenden, aber zaubern werden die auch nicht können. Was an "Bildinformationen" nicht vorhanden, ist fehlt halt. :)
https://support.apple.com/kb/PH22919?viewlocale=de_CH&locale=de_CH
 
  • Gefällt mir
Reaktionen: Beachfreak, walfreiheit und dg2rbf
Generell halte ich das Format aber auf modernen und entsprechend großen Fernsehern für eine visuelle Zumutung.
Am Rande: Es wird erst recht unzumutbar, wenn Fernsehanstalten alte – genauer solche offenbar nur noch auf Video vorhandene – Sendungsbeiträge (also 576i) für irgendwelche Rückschauen dann auch noch auf 16:9 aufblähen, was natürlich nur unter Verlust der ohnehin schon mageren Zeilenzahl geht, anstelle wie selbstverständlich links und rechts Balken anzufügen. Da wird solch ein Vorgehen unbegreiflich. Ganz zu schweigen von dem dabei eintretenden Teleobjektiv-Effekt.

Bei Filmmaterial kann man ja noch eine Neuabtastung versuchen.
Scheitert aber oft auch daran, dass die Beschaffenheit des meist 16mm-Materials sich ja seinerzeit nach den Bedürfnissen einer 576i- (625 Zeilen), bei den Briten früher gar 376i- (405-Zeilen-Verfahren) Abtastung orientert hat.
Bei 1080p wird dann oft schon die Körnung mitabgetastet.
 
  • Gefällt mir
Reaktionen: Beachfreak und imacer
Topazlabs bietet da einige Tools (Gigapixel AI, VideoEnhance AI) an, die in manchen Situationen einiges aus den Bildern/Videos herausholen. Habe es aber selber nicht getestet.

https://topazlabs.com/video-enhance-ai/

Sie bieten ein "totally free 30-day trial to test Video Enhance AI with your own video projects" an - keine Ahnung was es genau bedeutet.
 
  • Gefällt mir
Reaktionen: Shetty und Beachfreak
Zuerst, vielen Dank für alle eure Beiträge!

Die Ursache scheint tatsächlich, und wie von @fa66 beschrieben, zu sein, dass unser LED-TV das Video hochskaliert und es deshalb zu einer "Klötzchenbildung (das meine ich mit "pixelig")" kommt. Ich habe das Video deshalb 'mal auf einem Röhren-TV mit wesentlich kleinerer Bildschirmdiagonale abspielen lassen. Das Video ist dort sichtbar schärfer und klarer als auf dem LCD-TV. Deshalb wird eine Nachbearbeitung wohl auch nicht viel bringen, da liegt @imacer mit seiner Aussage "Was an "Bildinformationen" nicht vorhanden, ist fehlt halt" völlig richtig.
 
  • Gefällt mir
Reaktionen: dg2rbf
Beim Hochskalieren geht schon noch etwas. Nicht viel, aber es sollte sichtbar besser sein, als das was ein Fernseher macht. Avisynth mit entsprechenden Filtern wäre eine kostenlose Windows-Variante, ffmpeg mit entsprechenden Einstellungen oder eben die Topaz-Lösung während der 30-tägigen Trial-Phase. Wenn dann das Ausgangsmaterial auch noch interlaced ist, ist solch ein Ergebnis deutlich besser als es bei einem Fernseher.
 
  • Gefällt mir
Reaktionen: Beachfreak
Da die Röhre, wie Du schreibst, eine wesentlich kleinere Bilddiagonale hat, als der LED, schauts natürlich besser aus. Bei gleich großem LED wäre es wohl weniger auffällig. Wenn skaliert werden muss, ggf. noch von 4:3 auf 16:9 ist "aufgeblasen" machts das Bild natürlich auch nicht besser.
Hast Du keine Möglichkeit mehr, das Ursprungssignal (VHS oder was auch immer) ggf hochwertiger zu digitalisieren?
 
  • Gefällt mir
Reaktionen: Beachfreak und dg2rbf
@biro21: "Avisynth" werde ich ausprobieren. Danke dir für den Tipp!

@imacer: Leider ist die VHS-Kasette schon seit mehr als 10 Jahren nicht mehr zu gebrauchen und wurde deshalb damals auch entsorgt. Eine nochmalige Digitalisierung ist deshalb unmöglich. Es ist nicht so, dass das Bild unansehlich ist. Es interessiert mich einfach, ob man als Amateur aus solchen Dateien mit aktueller Software das eine oder andere noch verbessern kann. Denn zu einem Profi zu gehen lohnt sich preislich dann doch nicht. Trotzdem, auch dir ein "Danke!" für den Hinweis.
 
Wenn skaliert werden muss, ggf. noch von 4:3 auf 16:9 ist "aufgeblasen" machts das Bild natürlich auch nicht besser.
Da aber für die Auflösung moderner Abspielgeräte skaliert werden muss, ist es besser die bestmögliche Skalierung (evtl. verbunden mit etwas AI oder aufwändigeren mathematischen Modellen) zu wählen. Und da ist die Skalierung durch den Fernseher definitiv nicht die beste Lösung und mit moderner Software/leistungfähigen Rechnern kann da etwas/einiges erreicht werden. Habe selber einige PAL-Aufnahmen auf 720p50 skaliert und die sehen sehr brauchbar bis gut (abhängig vom Ausgangsmaterial) aus.
 
  • Gefällt mir
Reaktionen: Beachfreak und dg2rbf
Das sieht ja mal echt interessant aus! Was das wohl für Rechenleistung braucht, sicher ein guter Job für den M1.
Oder man hat einfach etwas Geduld, geht sicher auch.

Allerdings finde ich das aktuelle TVs auch recht gut hochskalieren, also zumindest mein 5 Jahre alter LG ist da gar nicht so schlecht, also das Bild wird zumindest nicht schlechter oder verhunzt. Aber mit so einer AI Lösung hat das natürlich rein gar nichts zu tun.
 
  • Gefällt mir
Reaktionen: Beachfreak
Da aber für die Auflösung moderner Abspielgeräte skaliert werden muss, ist es besser die bestmögliche Skalierung (evtl. verbunden mit etwas AI oder aufwändigeren mathematischen Modellen) zu wählen. Und da ist die Skalierung durch den Fernseher definitiv nicht die beste Lösung und mit moderner Software/leistungfähigen Rechnern kann da etwas/einiges erreicht werden. Habe selber einige PAL-Aufnahmen auf 720p50 skaliert und die sehen sehr brauchbar bis gut (abhängig vom Ausgangsmaterial) aus.

Es gibt dutrchaus Fernseher die zur Bildverbesserung oder Anpassung AI einsetzen. Ob das Ergebnis dieser Echtzeit-Behandlung allerdings mit Material vergleichbar ist, welches vorher minuten- oder stundenlang neu berechnet wurde, zweifle ich an.
Es werden halt Pixel dzugedichtet, die im Ausgangsmaterial nicht vorliegen, ich kann mir kaum vorstellen, dass es wirklich überzeugend möglich ist. "Brauchbar" mag es aussehen, aber das klingt eher nach Notlösung für die Fälle, wie hier, wenn kein besserer Input vorliegt.
Vielleicht unterschätze ich ja die heutigen Möglichkeiten und jemand mag mal ein paar Sekunden von "unbearbeitetem" (also einfach digitalisiertem) VHS-Pal Video hochladen und dieselbe Szene mit allem Aufwand verbesserte Material?!

Allerdings finde ich das aktuelle TVs auch recht gut hochskalieren, also zumindest mein 5 Jahre alter LG ist da gar nicht so schlecht, also das Bild wird zumindest nicht schlechter oder verhunzt. Aber mit so einer AI Lösung hat das natürlich rein gar nichts zu tun.
Reines hochskalieren (wenn die Auflösung ein Vielfaches beträgt) dürfte auch nicht das Problem sein, da werden "einfach Zwischenpixel berechnet, aber wenn die Formate bzw Längen/Breitenverhältnisse nicht gleich sind und es von 720x576 auf 1920x1080 oder 3840x2160 passt da gar nix mehr :)

Wie gesagt, würde mir aber gerne mal ein Bild der heutigen Möglichkeiten machen.
 
  • Gefällt mir
Reaktionen: Beachfreak
Ich habe mir am Wochenende die Testversion von "Video Enhance AI" heruntergeladen und nur kurz laufen lassen. Die Lüfter des MacBook Pro mit 8 GB RAM drehten ziemlich auf und ich befürchtete, das es überhitzt. Hätte ich vorher die Anforderungen an die Hardware gelesen, hätte ich es erst gar nicht versucht. Denn hier https://help.topazlabs.com/hc/en-us/articles/360039302251-Video-Enhance-AI-System-Requirements steht: RAM: Minimum 8 GB, Recommended 16 GB, Optimal 32 GB. Ebenso werden als Hardware als Minimum "Mac Pro 6 and Above", besser "Mac Pro 2019/iMac Pro and Above" empfohlen. Macs mit M1-Prozessor werden übrigens zumindest derzeit nicht unterstützt.
 
Ich habe mir am Wochenende die Testversion von "Video Enhance AI" heruntergeladen und nur kurz laufen lassen. Die Lüfter des MacBook Pro mit 8 GB RAM drehten ziemlich auf und ich befürchtete, das es überhitzt.
Wenn du dein Video per Dropbox oder so sharen kannst, könntest du mir einen Link per PN schicken. Dann jage ich es durch Video Enhance AI. Mein PC ist zwar auch nur Mittelklasse, aber besser belüftet als ein MPB.
 
  • Gefällt mir
Reaktionen: Beachfreak und dg2rbf
Deshalb wird eine Nachbearbeitung wohl auch nicht viel bringen, da liegt @imacer mit seiner Aussage "Was an "Bildinformationen" nicht vorhanden, ist fehlt halt" völlig richtig.
Technisch gesehen richtig, praktisch auch, aber irgendwie auch nicht.
Klar, fehlende Infos sind weg. Diese Netzwerke sind aber ziemlich gut im Nachzeichnen - sofern man die dadurch verursachten, typischen Defekte nicht erkennt. ;)

Der ganze Spaß mit "AI" Upscaling ist schon relativ alt und wird u.A. in Videoplayern live eingesetzt. Zwei Beispiele einer der vermutlich ersten Varianten, damals etwas das sich NNEDI3 nannte: http://madshi.net/madVR/monsters.png http://madshi.net/madVR/lighthouse.png
Beachtliche Ergebnisse, wenn man bedenkt, dass NNEDI3 mal als Deinterlacer gedacht war (bzw. das auch ist). Im zweiten Bild kann man im Gras unten links auch gleich entdecken was ich mit Defekte meine. Man sieht hier deutlich Muster im Gras, welche an Grasnarben erinnern und die im Original nicht enthalten sind. Die sind zwar schön und scharf abgebildet, aber einfach nicht wirklich da. Dieses Problem haben alle diese Verfahren.

Diese ganzen Verfahren sind überwiegend veröffentlichtes Wissen, dafür muss man nicht bezahlen. Man muss nur wissen wie man es anwendet.
Modernere Beispiele sind z.B. FSRCNN mit einer Implementierung hier für den Videoplayer mpv. Das sieht schon ziemlich gut aus und geht sogar schnell genug, dass ich es live verwenden kann, um mein Videomaterial auf 4K beim anschauen zu skalieren (AMD RX 580). Wenn realtime kein Kriterium ist geht optisch natürlich noch mehr. Von Google gibt es RAISR: Rapid and Accurate Image Super-Resolution das in RAVU implementiert ist. Nicht ganz so hübsch, dafür wesentlich schneller.
Für DVD Inhalte pack ich dann gerne noch SSimSuperRes drauf, da es die typischen Artefakte gut entfernt.

Der geneigte Beobachte bemerkt, dass dies alles Verdoppler sind. Die vergrößern ein Bild/Video um einen fixen konstanten Wert, z.B. x2. Beliebige Skalierfaktoren sind hier nicht möglich, da es für jeden Faktor ein eigenes Modell bedarf. Wenn wir also etwas mit einem Verdoppler auf 1.5 vergrößern wollen, dann wird erst der Verdoppler angewendet und das Resultat wieder herunterskaliert. Das beeinträchtigt das Endresultat wieder negativ. Also bei den Skalierfaktoren aufpassen und am besten bei 2er Potenzen bleiben.

Es gibt aber übrigens auch gute Algorithmen in der nicht-AI Welt.
Hier wurde als Beispiel dieses Ausgangsbild ca. 14x vergrößert: einmal Bilinear (Standard in Playern wie QuickTime und VLC), einmal EWA_Lanczos (nicht zu verwechseln mit normalem Lanczos).
Klar sind die trainierten Verfahren besser, aber diese "klassischen" sind schneller und bringen keine Dinge ins Bild ein, die dort nie drin waren. Kann man auch mögen.

Das sieht ja mal echt interessant aus! Was das wohl für Rechenleistung braucht, sicher ein guter Job für den M1.
Ne, ne...
In ein paar Generationen.
 
  • Gefällt mir
Reaktionen: Beachfreak, Shetty und dg2rbf
Zurück
Oben Unten