iPad so effizient beim Videorendering?

bowman

Aktives Mitglied
Thread Starter
Dabei seit
08.10.2003
Beiträge
3.388
Reaktionspunkte
2.224
...ich bin gerade ziemlich am Staunen:

Aus Langeweile habe ich eben mal einen kurzen Clip (1080p, 59,94fps, gedreht mit der Drohne) in DaVinci Resolve auf dem frisch angeschafften Mac Mini mit eGPU (Vega 56) auf ca. 30 Sekunden Länge getrimmt und in h264 neu rendern lassen: Das dauerte etwa 5 Sekunden und die Vega hörte sich kurzzeitig an wie ein Staubsauger, der es versucht, mit einem Düsenjet aufzunehmen...

Soweit eindrucksvoll, aber erwartbar - dafür rechnet man ja auf der Graphikkarte.

Dann, ich wollte es einfach wissen, das Ganze nochmal auf dem iPad Pro 11" mit Luma Fusion nachgestellt mit den gleichen Einstellungen: Das dauerte etwas länger - so ca. 12 Sekunden. Aber:

Das iPad wird dabei noch nicht mal warm, von dem ausbleibenden Getöse mal ganz zu schweigen...!

Ja WTF?!

Bislang hielt ich ja das Encodieren auf der Graphikkarte schon für das Geilste seit Erfindung des tiefen Tellers, aber daß das iPad einfach so lässig das gleiche Ergebnis dermassen unspektakulär abliefert, ist schon beeindruckend. Ok, es braucht etwa doppelt so lang, das aber bei offenbar nur einem winzigen Bruchteil des Energieaufwands der Vega. Das hier direkt in Hardware gerechnet wird ist ja bekannt, aber dermassen effizient?!

...irgendwie kommt mir die PC-Technik gerade sehr steinzeitlich vor... :kopfkratz:
 
  • Gefällt mir
Reaktionen: phonow und Leslie
das ist halt ein optimierter spezial chip gegen einen multi-purpose chip, der wohl schon idle mehr strom zieht als das ipad generell.
 
das ist halt ein optimierter spezial chip gegen einen multi-purpose chip, der wohl schon idle mehr strom zieht als das ipad generell.

...offensichtlich, aber da drängt sich doch die Frage auf, wieso diese Technologie nicht schon längst im Desktop-Bereich verbreitet ist? Wenn ich mir vorstelle, welche Rechenleistung da verfügbar wäre, wenn man die in den iPads verwendeten Spezialchips hochskalieren und mit der Kühlung von Graphikkarten ausstatten würde...

...aber wer weiss, was mit dem nächsten Mac Pro kommt - und/oder einem Wechsel zur ARM-Architektur...
 
du lässt dich da ein wenig bei der rechenleistung täuschen.
das ding macht ja nichts anderes als nur eine anwendung auszuführen und auch nur die.
da gibt es immer einen best und einen worst case.
für einen allgemein rechnenden chip sieht so was halt anders aus.
 
...es ist ja nicht so, daß das iPad mit seinem Videoencoder nur ein One-Trick-Pony wäre: 4k-Videoschnitt läuft komplett ruckelfrei, dabei kannst Du noch bis zu 12 Filter drüberlegen und auf mehreren Spuren arbeiten - in den zentralen Funktionen kann Luma Fusion mit den bekannten klassischen Schnittprogrammen locker mithalten. Ähnlich sieht es im Gaming-Graphikbereich, bei Partikel- und Physiksimulationen, Handschrifterkennung etc. aus - das Ding ist ein Monster. Schade nur, daß das OS so dermassen eingeschränkt ist, daß es schmerzt...
 
Die 4k Datenmengen dürften auf dem iPad auch anders ausfallen als auf einem Mac.
 
Die 4k Datenmengen dürften auf dem iPad auch anders ausfallen als auf einem Mac.

:kopfkratz: ...ein 4k-File wird nicht dadurch kleiner, daß es auf einem iPad gerendert wird. Auch das Quellmaterial im o.g. Beispiel ist das selbe und das gerenderte Ergebnis hat auch eine vergleichbare Größe. Hab spasseshalber den Clip auch mal in .h265 umrechnen lassen: Zeitlich kein nennenswerter Unterschied. Ich wollte sicher gehen, daß wirklich neu gerendert wird.
 
Also der Mac mini mit eGPU rendert in 5 Sekunden und das iPad in 12 sec. Damit ist der Mac mini ja nur gerade einmal ca. 2,5 mal so schnell! Render mal einen deutlich längeren Clip welcher 30-60 min auf dem mini braucht, dann bist da schon bei 75-150 min auf dem iPad. Für mich ist das schon noch ein ziemlich ordentlicher Unterschied.
 
Ja, die Grafikleistung im neuen iPad Pro ist der Hammer. Was aktuelle Smartphones mit bescheidenem Energiebedarf und überschaubarer Abwärme leisten im Vergleich zu Laptops von vor ein paar Jahren, ist schon beeindruckend, aber das iPad ist wirklich mal eine Ansage.
Deshalb kommt auch das neue iPad Air gerade recht - günstiger mit gutem Display und für "normale" Anwendungen nicht so ein Overkill.
 
Also der Mac mini mit eGPU rendert in 5 Sekunden und das iPad in 12 sec. Damit ist der Mac mini ja nur gerade einmal ca. 2,5 mal so schnell! Render mal einen deutlich längeren Clip welcher 30-60 min auf dem mini braucht, dann bist da schon bei 75-150 min auf dem iPad. Für mich ist das schon noch ein ziemlich ordentlicher Unterschied.

...nicht der Mini ist 2,5 mal so schnell (bei dessen CPU-Rendergeschwindigkeit könntest Du deine Enkel aufwachsen sehen... ;)) sondern die daran angeschlossene Vega, die unter Spitzenlast - die hier auch abgerufen wird - annhähernd 300 Watt durchzieht.

Nochmal: Ich rede von Effizienz. Könnte man in Renderframes/Watt messen. Die momentanen Renderzeiten auf einem sechs Millimeter dicken, lautlosen, kühl bleibenden Gerätchen interessieren mich nicht, sondern das Skalierungspotenzial der darin steckenden Technik - verglichen mit dem Schuhkarton-grossen, fauchenden Boliden auf meinem Schreibtisch, der mit seinem enormen Energie- und Kühlungsaufwand gerade mal doppelt so schnell ist...
 
Zuletzt bearbeitet:
:kopfkratz: ...ein 4k-File wird nicht dadurch kleiner, daß es auf einem iPad gerendert wird. Auch das Quellmaterial im o.g. Beispiel ist das selbe und das gerenderte Ergebnis hat auch eine vergleichbare Größe. Hab spasseshalber den Clip auch mal in .h265 umrechnen lassen: Zeitlich kein nennenswerter Unterschied. Ich wollte sicher gehen, daß wirklich neu gerendert wird.

War nur ein Erklärungsanstoss. Dann wäre immer noch das Limit der verfügbare Speicher an ipad. Das grenzt die Rechner dann ab.
 
Dann, ich wollte es einfach wissen, das Ganze nochmal auf dem iPad Pro 11" mit Luma Fusion nachgestellt mit den gleichen Einstellungen: Das dauerte etwas länger - so ca. 12 Sekunden. Aber:

Das iPad wird dabei noch nicht mal warm, von dem ausbleibenden Getöse mal ganz zu schweigen...!

...irgendwie kommt mir die PC-Technik gerade sehr steinzeitlich vor... :kopfkratz:
Also mich wundert das auf keinen Fall und entwertet die Hardware meines Rechners überhaupt nicht.

Eine Kernaufgabe der iPhones/iPads ist Video. Dabei wird der ganze Prozess (Aufnahmen, Bearbeitung, Konvertierung) von Apple kontrolliert und durch spezielle Chips (T2) optimiert. Sehe da wirklich nichts überraschendes einen begrenzten Befehlssatz hardwaremäßig gewaltig zu beschleunigen. Gibt es für Intel-CPUs (h.264 und MPEG-2) und mit NVIDIA-CUDA/-NVENC auch. Wird auf Mac-Seite nur so gut wie gar nicht unterstützt und zudem ist die Qualität nicht optimal, da eben nur eine begrenzte Anzahl an Einstellungsmöglichkeiten möglich sind.

Da Apple aber alles in der Hand hat, können sie hier bessere Ergebnisse erzielen, indem sie selber entscheiden welche Einstellungen sie benötigen und diese, wenn nötig, durch Hardware entsprechend beschleunigen.
 
Eine Kernaufgabe der iPhones/iPads ist Video. Dabei wird der ganze Prozess (Aufnahmen, Bearbeitung, Konvertierung) von Apple kontrolliert und durch spezielle Chips (T2) optimiert. Sehe da wirklich nichts überraschendes einen begrenzten Befehlssatz hardwaremäßig gewaltig zu beschleunigen.

Der aktuelle Mini hat ja auch einen T2-Chip. Wird der nur (wenn überhaupt?) von Final Cut genutzt? Kennst Du zufällig Vergleiche von Renderzeiten mit DaVinci/eGPU?
 
Der T2-Chip interessiert mich in meinem Rechner nur wie lange ich macOS ohne ihn nutzen kann. ;) DaVinci/eGPU - keine Ahnung.
 
Also der Mac mini mit eGPU rendert in 5 Sekunden und das iPad in 12 sec. Damit ist der Mac mini ja nur gerade einmal ca. 2,5 mal so schnell! Render mal einen deutlich längeren Clip welcher 30-60 min auf dem mini braucht, dann bist da schon bei 75-150 min auf dem iPad. Für mich ist das schon noch ein ziemlich ordentlicher Unterschied.

Länger als Realtime braucht LumaFusion nicht.
Was diese Zahlen wirklich bedeuten, wird dann deutlich, wenn man den selben Film mal mit Premiere Pro rendert.

Die Sache ist ja vor allem nicht nur, dass es einigermaßen schnell geht, sondern dass dies alles auf einem Gerät stattfindet, welches hauchdünn ist, keinen Lüfter hat und dabei nichtmal warm wird.

Bzgl. TDP ist Intel IMHO aktuell im Hintertreffen und das wird wohl auch der Grund ein, warum Apple über kurz oder lang in den MacBooks eigene CPUs verbauen wird.
 
Zuletzt bearbeitet:
So oder so, eine eGPU wird vor min. Thunderbolt 4 keine dedizierte GPU im Rechner ersetzen können. Weshalb die Combo rein rechnischerisch gesehen völlig unwirtschaftlich ist. Aber das Thema hatten wir hier ja schon anderswo… ;)

Wenn man einen alten Rechner neues Leben einhauchen, okay, vielleicht. Aber auch dann wird ein Neukauf aller Wahrscheinlichkeit nach trotzdem Preis-/Leistungstechnisch die weit bessere Wahl sein, gerade wenn es vornehmlich für Video genutzt werden soll.

- RK
 
eine eGPU wird vor min. Thunderbolt 4 keine dedizierte GPU im Rechner ersetzen können
Pauschalaussage ... kommt ja recht stark drauf an welche dGPU da ersetzt wird.

eGPU hat halt den Vorteil dass man bei solchen Konstellationen nicht immer gleich alles austauschen muss ...
 
Zurück
Oben Unten