iPad iPad Pro M1 (2021)

Sobald der M1 gewöhnliche Aufgaben rein in Software lösen muß, statt auf dedizierte Hardware zurück greifen zu können, schaut er auch nicht mehr so gut aus.
--> https://singhkays.com/blog/apple-silicon-m1-video-power-consumption-pt-1/

Verstehe mich bitte nicht falsch, der M1 ist ein toller, extrem effizienter SoC, aber ihn einer aktuellen x86_64 CPU zu vergleichen finde ich schwierig, weil er deutlich weniger flexibel zu nutzen ist.
Allein schon deshalb, weil er nicht frei verfügbar ist oder kaum brauchbare, externe Schnittstellen hat.
An einen aktuellen Ryzen kann ich auch z.B. 128GB ECC RAM und 6x PCIe 4.0 4x NVMe SSDs anbinden, wenn mir danach ist.
Diese Flexibilität kostet Effizienz.

Ein Großteil der Effizienz ergibt sich aus dem begrenzten Einsatzfeld des M1 (daß meinte ich mit maßgeschneidert).
 

Allein schon deshalb, weil er nicht frei verfügbar ist oder kaum brauchbare, externe Schnittstellen hat.
An einen aktuellen Ryzen kann ich auch z.B. 128GB ECC RAM und 6x PCIe 4.0 4x NVMe SSDs anbinden, wenn mir danach ist.
Diese Flexibilität kostet Effizienz.
Sorry, aber in wiefern ist das für das iPad Pro M1 interessant 😊

Trotzdem Danke für deine schönen Beiträge und natürlich kocht auch Apple nur mit Wasser …
 
Optional! Es MUSS auch weiterhin bedienbar bleiben, wenn kein Maus mehr verfügbar ist. Und ja, Shiftscreen, die bekannte App für externe Bildschirme, macht das ja alles über einen Browser. Ist im Handling aber ein ziemlicher Krampf.
Ich rede ja davon, wenn man zuhause am Schreibtisch sitzt und eben Tastatur, Maus und einen externen Monitor zur verfügung stehend hat.
 
Apple kocht auch nur mit Wasser... aber sie kaufen halt aktuell sämtliche 5nm Fertigungskapazitäten bei TSMC auf...

Imho ist das eher ein Fertigungsvorsprung gepaart mit dem Vorteil, in Hardware gegossene Features auch in Software vollumfänglich nutzen zu können.

Auf dem x86_64 Markt würde das nicht funktionieren, weil es Jahre dauern würde, bis man die dedizierten Hardwarefeatures des M1 in Windows/Linux/BSD nutzen könnte.
Was Apple mit dem M1 macht funktioniert nur, weil Apple sowohl die Hardware designed, als auch das dazu "maßgeschneiderte" OS liefert.
"Maßgeschneidert" im Sinne davon, daß die Funktionen der Hardware zeitnah via APIs dem System/Apps verfügbar gemacht werden.
Encoder, die in Hardware gegossen sind, sind i.d.R. schlechter als sehr gute Software-Encoder.
Die Qualität bei H.264 oder H.265 beim Encoder im M1 ist wohl daher auch bestenfalls nur "gut".
Ich werden demnächst ein paar Sachen encodieren müssen und gehe daher auf meinem M1 direkt auf Software-Encoder (x264 oder x265), auch wenn es wahrscheinlich deutlich länger dauern wird.

In den ganzen Pseudotests wird das ja alles nicht berücksichtigt. Da wird dann nur auf die Geschwindigkeit geschaut, wie lange das Encodieren dauert aber nicht auf die Qualität in Verbindung mit der Dateigröße.
 
Ich rede ja davon, wenn man zuhause am Schreibtisch sitzt und eben Tastatur, Maus und einen externen Monitor zur verfügung stehend hat.
Ja, und wenn Du Maus und Tatstatur abziehst? Dann muss es weiter funktionieren, so ist iPadOS konzipiert. ALLES muss jederzeit, unter allen Umständen mit Touchscreen bedienbar sein. So lange Apple das nicht ändert, kann das auch mit dem externen Bildschirm nicht anders werden. Nur wäre es dann auch nicht mehr iPadOS, sondern macOS. Die Daseinsberechtigung ist ja gerade, dass das System und alle Apps 100% auf Touchscreen-Bedienung optimiert sind.
 
Und noch mal. Mein Szenario sagt aus, dass man das komplett nutzt. ;)
 
Encoder, die in Hardware gegossen sind, sind i.d.R. schlechter als sehr gute Software-Encoder.

Was meinst Du denn mit besser oder schlechter?

Hardwareencoder sind im Regelfall deutlich leistungsfähiger und erheblich effizienter.
 
Was meinst Du denn mit besser oder schlechter?

Hardwareencoder sind im Regelfall deutlich leistungsfähiger und erheblich effizienter. schneller bei schlechtere Qualität/Dateigröße.
Bildqualität (auch im Verhältnis zur Dateigröße).
Wenn man darauf Wert legt, dann war man zumindest in der Vergangenheit bei den Hardware Encodern falsch. Weil die sind nur schnell. Man muss natürlich mit hochwertigen Software-Encodern vergleichen wie x264 und x265. Ein aktueller nvenc (NVIDIA) kann ggf. derzeit mithalten.
Fest in Hardware gegossene Funktionalitäten können ohne Austausch der Hardware auch nicht weiterentwickelt werden (im Gegensatz zu Software).

Erstbester Link gefunden:
"Seeing exact same thing. I haven't compared the VT vs x265 quality yet extensively but eye test, the VT version had to be encoded at 8K+ BR to yield comparable quality to x265 which was closer to 2K BR. And of course the resulting 9GB file vs 2.3GB file."
https://forums.macrumors.com/threads/mac-mini-m1-h-265-encoding.2269815/

VT ist die VideoToolbox, über den man den Apple Hardware-Encoder anspricht.

Könnte weitersuchen oder auch selber testen. Aber das Ergebnis steht ja sowieso schon fest: Wer den HardwareEncoder im M1 nutzt, wirft mit hoher Wahrscheinlichkeit einiges an Bildqualität weg bzw. hat größere Dateien am Ende im Vergleich zu hochwertigen Software-Encodern. Aber Hauptsache der ist so schnell ^^
 
Zuletzt bearbeitet:
Aber Hauptsache der ist so schnell ^^
Für die meisten Szenarios ist das vermutlich ausreichend.
Die meisten User werden den M1 encoder/decoder vermutlich für Videokonferenzen und/oder YT/Twitch nutzen aber nicht als Ersatz für ne Avid in der Videoproduktion.
Dafür ist halt "gut genug".
 
Für die meisten Szenarios ist das vermutlich ausreichend.
Die meisten User werden den M1 encoder/decoder vermutlich für Videokonferenzen und/oder YT/Twitch nutzen aber nicht als Ersatz für ne Avid in der Videoproduktion.
Dafür ist halt "gut genug".
Ich nutze das auch nur für private Familienfilme. Aber wieso soll ich mich damit zufrieden geben, wenn es auch besser geht? Habe noch nie die Hardware-Encoder verwendet bzw. damit experimentiert genau aus dem Grund.
Und das Beispiel mit Avid; ich weiss nicht ob das gut ist, da ich über den verwendeten Encoder im Zusammenhang mit Avid nichts weiss. Der kann unter Umständen auch mittelmäßig bis schlecht sein. Nur weil es Profi-Software ist, muss das nichts heißen. Da gab es in der Vergangenheit mehrere Indizien (z.B. BluRays), dass Profi-Encoder teilweise schlecht sind bzw. nicht mit den OpenSource-Encodern mithalten können (von einem x264-Entwickler gab es auch mal ein Blog-Posting dazu, der viele Profi-Encoder sprichwörtlich als Garbage bezeichnet hatte). Der Apple Software-Encoder (z.B. FinalCut Pro) war z.B. mal richtig schlecht (konnte noch nicht mal CABAC); trotzdem haben den viele genutzt (inkl. vieler "Profis"), da die es nicht besser wussten oder es denen egal war.

Für Live-Geschichten ist der Hardware-Encoder z.B. gut - das schreibt ja einer auch im von mir geposteten Link.


Und in einem guten und seriösen Test sollten auch die verwendeten Encoder inkl. Einstellungen betrachtet werden, um Äpfel mit Äpfeln und nicht Äpfel mit Birnen zu vergleichen.
 
Zuletzt bearbeitet:
Aber wieso soll ich mich damit zufrieden geben, wenn es auch besser geht.
Weil es je nach Szenario keinen relevanten Unterschied macht...
Ob ich z.B. ein Video für YT über Intel-Quicksync, den M1, den NVidia-enc oder per Software x264/x265 encodiere macht im Ergebnis keinen relevanten Unterschied, weil YT es nach dem upload eh zu Brei transcodiert.
Oder wenn man bei Twitch irgend welchen JustChatting/Reaction-Content macht...

Private Aufnahmen würde ich aber auch tendenziell eher per Software transkodieren.
 
Das mag so sein. Sorry, da habe ich dich falsch verstanden. Hatte nur private Aufnahmen im Sinn und kein YT & Co.
 
Ist ja nicht schlimm. Mußt dich doch nicht entschuldigen. Dafür quatscht man ja hier.
Gibt inzwischen recht viele ContentCreator auf YT, die ihre kompletten 4k-Schnitt auf dem iPad pro mit LumaFusion machen, um mal die Brücke zurück zum Thema zu schlagen. Wenn man sich überlegt, was man dafür vor 10 Jahren an Hardware auffahren mußte -> Hammer.
 
Und noch mal. Mein Szenario sagt aus, dass man das komplett nutzt. ;)
Und noch mal: Das Szenario gibt es so offiziell nicht. Es darf niemals die Situation geben, dass die Bedienung nur funktioniert, wenn Maus und Tastatur angeschlossen sind und das wäre in dem von Dir beschriebenen Fall so. Also kann es das in iPadOS nicht geben.
 
Ok, dann liess bitte nochmal, was ich oben geschrieben habe, was mir noch fehlt !
WAs es zurzeit gibt, ist jedem klar und es wäre durchaus machbar, was ich mir vorstelle - vor allem, wenn dort jetzt ein M1 werkelt...
 
Ok, dann liess bitte nochmal, was ich oben geschrieben habe, was mir noch fehlt !
WAs es zurzeit gibt, ist jedem klar und es wäre durchaus machbar, was ich mir vorstelle - vor allem, wenn dort jetzt ein M1 werkelt...
Das wäre auch ohne M1 technisch problemlos machbar, was @geWAPpnet aber meint ist, dass Apple bei iPadOS nicht die Philosophie verfolgt, die du gerne hättest. Sie werden iPadOS auch weiterhin auf reine Touchbedienung auslegen. Eine auf Maus/Trackpad Nutzung ausgelegte GUI wird es dort nicht geben. Eher werden sie Dual Boot mit macOS auf dem iPad zulassen, aber auch da glaub ich nicht dran.
 
Es würde ja schon viel helfen, wenn es systemweit die Möglichkeit gäbe, dass sich die Darstellung nach dem externen Bildschirm richtet. Die Citrix Workspace App zum Beispiel macht das, statt auf dem externen Bildschirm hat man die Balken dann auf dem iPad-Screen. Aber so kann man eben bei Bedarf auch einen 32 Zoll Monitor nutzen.
Könnte man das iPad-Display in diesem Modus abdunkeln, wäre es schöner (aber da spricht oben beschriebenes Szenario wohl dagegen).
Dual-Bildschirm wäre zwar schön, aber zumindest mit dem iPad-Display als einem davon halte ich das für entbehrlich.
 
Fakt ist, dass die Spiegelung des iPads auf dem Monitor zur Zeit bescheiden ist und eigentlich ich so etwas "halbes" nicht von Apple erwartet hätte.

Und wenn man (a) das iPad auch als ein anderes Laptop bewirbt und (b) auch erwartet, dass die Leute den größeren Screen nutzen (Photobearbeitung z.B fällt mir gerade noch von der Werbung ein), dann sollte man entsprechend der Szenarien auch eine Arbeit ermöglichen (wie mein Wunsch z.B.). Der Bildschirm des iPads muss jetzt auch an sein, damit man am Monitor arbeitet? Naja,...

Aber wie gesagt - ich bin da sehr auf die WWDC gespannt. Bald wissen wir mehr ;)
 
Es würde ja schon viel helfen, wenn es systemweit die Möglichkeit gäbe, dass sich die Darstellung nach dem externen Bildschirm richtet. Die Citrix Workspace App zum Beispiel macht das, statt auf dem externen Bildschirm hat man die Balken dann auf dem iPad-Screen. Aber so kann man eben bei Bedarf auch einen 32 Zoll Monitor nutzen.
Ja, das wäre möglich und auch realistisch.

Übrigens, falls das untergegangen oder wider erwarten doch nicht jedem bekannt sein sollte: Die App Shiftscreen ist das Beste was derzeit und absehbar mit iPad und externem Monitor möglich ist.
 
Zurück
Oben Unten