iPad so effizient beim Videorendering?

  • Gefällt mir
Reaktionen: bowman
Ich weiß. Ich kenn ihn. Deswegen muss ich das ja nicht unkommentiert stehen lassen, am Ende glaub das noch jemand :)
 
  • Gefällt mir
Reaktionen: bowman und Veritas
Mal so als Ansatz: das iPad Pro hat laut MacTracker eine Geekbench-Performance von 18000, der beste verfügbare Mac Mini (3,2GHz i7) "nur" 24000. Ist also gar nicht so weit weg. Wäre mal interessant zu wissen, welches Modell der verwendete Mini ist.

Davon abgesehen: hast Du auch bei beiden Renderern die gleichen Einstellungen verwendet? Manchmal kann ein simples Häkchen ("2-Pass Rendering" o-ä) die Rechenzeit ganz erheblich verändern. Gerade bei Verwendung von zwei unterschiedlichen Programmen könnte da der Hase im Pfeffer liegen.

Nichtsdestotrotz ist das ein verblüffendes Ergebnis! Wobei eine eGPU sicher nicht dazu da ist, 30s-Clips zu bearbeiten, sondern 4k-Filme von 2h Länge oder so ;)
Ich habe so den starken Verdacht, daß ein iPad ziemlich schnell ins Stocken käme, wenn es mal ein paar Minuten unter Vollast rendern soll ;)

Das wäre doch im Grunde mal eine schöne Konstellation für eine Experimentierreihe :)

BWG Wirbel
 
Unabhängig davon, dass der Geekbench in dem Vergleich nicht viel aussagt, der mini i7 kommt auf über 27.000 Punkte.
 
Nicht laut MacTracker ;)
Und WENN Geekbench-Werte Aussagekraft haben, dann bei solch rechenintensiven Aufgaben wie dem Videorendering :)
 

Anhänge

  • Bildschirmfoto 2019-04-03 um 11.03.57.jpg
    Bildschirmfoto 2019-04-03 um 11.03.57.jpg
    29,7 KB · Aufrufe: 145
Nicht laut MacTracker ;)
Und WENN Geekbench-Werte Aussagekraft haben, dann bei solch rechenintensiven Aufgaben wie dem Videorendering :)

Aber laut meinem Benchmark an meinem 2018er mini. Die Einträge sind ja auch alt, da steht weder, wie viel RAM, welcher RAM, noch welche SSD. Online gehen die auf 28.000 hoch.
Naja, lass doch mal auf demselben Mac FCPX, DaVinci und Premiere rödeln, die Unterschiede wirst du merken. Insofern hat Geekbench keine Aussage.
 
Pauschalaussage ... kommt ja recht stark drauf an welche dGPU da ersetzt wird.
Tja, leider der gängige Irrglaube, sorry. Fakt ist nun mal, dass du mit einer eGPU jede darin enthaltene noch so halbwegs performante GPU allein durch den Bus auf einen Bruchteil der Gesamtleistung kastrierst, erst recht im Kontext der Videobearbeitung, wovon wir hier ja reden. Dass du bei einer Kiste ohne dedizierte GPU einen Zuwachs sehen wirst ist ja klar. Ich sage ja auch nicht, dass es NICHTS bringt (in dem Fall). Aber ob du also da eine kleine RX oder die fetteste VEGA reinschraubst ist praktisch irrelevant. Insofern du nicht gerade SPIELE damit spielen willst.

Es gibt, wenn auch nicht von mir, reichlich Youtube Videos aus der Praxis die das auch zu 100% bestätigen.

eGPU hat halt den Vorteil dass man bei solchen Konstellationen nicht immer gleich alles austauschen muss ...
Keine Ahnung wie es bei dir ist, aber ich für mein Teil verdiene mit meinem Rechner mein Geld. Da kommt so oder so alle drei, spätestens vier Jahre was neues rein. Schließlich wird die Gesamtperformance eines Rechners ja auch nicht nur an der GPU gemessen (auch da wieder, insofern man was anderes machen muss als spielen). Dementsprechend zu behaupten man hätte sich durch das ganze irgendwie Geld gespart oder seine Performance auf den neusten Stand gebracht doch sehr eingeschränkt richtig, wenn überhaupt, sachlich und objektiv betrachtet. Ich muss mich damit auch nie mit irgendwelchen Verkabelungsritualen und Treibertänzen rumschlagen. Es läuft einfach UND es läuft exponentiell runder und schneller. Insgesamt und nicht nur bei einzelnen Aufgaben. Im Zweifelsfall sogar bei weit weniger Gesamtkosten. Denn zumindest meine Arbeitszeit ist auch nicht gratis.

Man muss im übrigen auch zwischen BENCHMARK und „REAL-WORLD” unterschieden können. Benchmark zahlen sind reine Theorie und damit am Ende völlig wertlos, sorry.

- RK
 
In der Zeit, in der du diesen Text geschrieben hast, hab ich die GPU ins Gehäuse gesteckt und den Mac ohne Zusatztreiber gestartet... Aber da sieht man mal, wie viel Ahnung du hast.
Stand November 2018 hatte der mac mini (bis auf den iMac Pro) die schnellste CPU, die SSDs sind nicht langsamer, RAM auch nicht.

Und damit bin ich raus.
 
In der Zeit, in der du diesen Text geschrieben hast, hab ich die GPU ins Gehäuse gesteckt und den Mac ohne Zusatztreiber gestartet...
Genau. Und hast nachweislich mehr (oder unwesentlich weniger, je nach Konfiguration) dafür bezahlt als z.B. einen vollausgebauten iMac… und dafür merklich weniger Performance. Aber das weißt du ja schon.

- RK
 
...offensichtlich, aber da drängt sich doch die Frage auf, wieso diese Technologie nicht schon längst im Desktop-Bereich verbreitet ist?
Ich dachte es wäre schon längst ein offeneres Geheimnis, dass es nur eine Frage der Zeit ist bis es soweit ist. Ohne Frage. Mit Sicherheit nicht mit dem Mac Pro als erstes, aber es wird kommen. Gerade eben auch, weil das iPad sogar (zumindest im „Single-Core”) fast so schnell ist wie ein MacBook Pro. Apple hat also jetzt schon „im kleinen” Intel übertrumpft, da mag man sich eben nicht vorstellen was machbar ist, wenn das ganze mehrfach und mit aktiver Kühlung bringen wird.

Die CPUs sind obendrein Apple's letzte Verbindung nach „draussen”. Wenn sie die auch noch komplett unter Kontrolle haben, dann wird alles so unfassbar optimiert sein, dass sie alles andere exponentiell abhängen dürften. Bis dahin ist es aber auch noch ein langer, steiniger Weg. Eben sogar noch steiniger als der PPC zu Intel Wechsel. Sollte man nicht unterschätzen. Man darf gespannt sein.

- RK
 
Zuletzt bearbeitet:
Wo ist ein iPad im Singlecore schneller?
 
Mal so als Ansatz: das iPad Pro hat laut MacTracker eine Geekbench-Performance von 18000, der beste verfügbare Mac Mini (3,2GHz i7) "nur" 24000. Ist also gar nicht so weit weg. Wäre mal interessant zu wissen, welches Modell der verwendete Mini ist.

...ein i5 (6 Kerne, keine virtuellen Kerne) mit 16 GB RAM und 512 GB SSD, das Ergebnis wandert auf eine per TB3 angeschlossene NVMe-SSD mit 2 TB. Eigentlich ist das aber egal, denn die CPU-Auslastung ist beim Rendern gering, da DaVinci Resolve alles auf die eGPU verlagert. Hab die Graphikkarte noch nie - auch nicht bei intensivem Zocken - so schnell so laut aufdrehen gesehen... :teeth:
 
Bislang hielt ich ja das Encodieren auf der Graphikkarte schon für das Geilste seit Erfindung des tiefen Tellers, aber daß das iPad einfach so lässig das gleiche Ergebnis dermassen unspektakulär abliefert, ist schon beeindruckend. Ok, es braucht etwa doppelt so lang, das aber bei offenbar nur einem winzigen Bruchteil des Energieaufwands der Vega. Das hier direkt in Hardware gerechnet wird ist ja bekannt, aber dermassen effizient?!

...irgendwie kommt mir die PC-Technik gerade sehr steinzeitlich vor... :kopfkratz:

Ein fairer Vergleich ist hier relativ schwierig. Zum einen nutzt du ja gezungenwermaßen unterschiedliche Encoder, zum anderen weiß man häufig nicht so genau, was im Hintergrund passiert. Beim iPad ist's klar, da wird sicherlich die Fixed Function Hardware genutzt. Beim Mac stehen für einen GPU-Encode neben den Fixed Function IP-Cores der GPU-Hersteller (namentlich Intel QuickSync, AMD VCE oder NVENC) natürlich auch beliebige GPU-Funktionen, die über OpenCL/Metal/CUDA realisiert werden, zur Verfügung. Da kann es auch noch mal massive Unterschiede geben, DaVinci Resolve läuft auf AMD mit OpenCL deutlich schneller als mit Metal. Die OpenCL/Metal/CUDA-Sachen werden naturgemäß deutlich ineffizienter sein als VCE oder NVENC, es sind eben deutlich generischere Funktionen.

Davon abgesehen darf man auch nicht vergessen, dass die Vega eine Effizienz-Katastrophe ist.
 
Zurück
Oben Unten