PPC vs Intel

stimmt - es ist quasi eine reale Aufbereitung von Moores Law...für die Antwort auf die Frage warum es wenig Sinn macht die Leistungsfähigkeit von Micorprozessoren von 2004 mit solchen von 2006 zu vergleichen :)
 
Und nun mit der zweiten Intel Generation, den Core i CPUs, sieht es ähnlich aus. Der Quad Core i7 im MBP kann locker mit den Quad Core Xeon CPUs von 2009 (!) mithalten.

Das glaube ich allerdings, der i7 ist ein verdammtes, konkurrenzloses Monster.
An sich braucht man den die nächsten zwei Jahre gar nicht weiter zu entwickeln, bis AMD mal in die Hufe gekommen ist. :D


Naja nochmal meine abschließenden Worte zum Thema: Wäre ich unzufrieden mit dem MBP, hätte ich es wieder gegen einen G5 getauscht. Ich benutze es jetzt aber fast zwei Jahre, und Manue, wir hatten geschrieben wegen dem Displaykabel, du siehst, ich will es noch ewig weiter benutzen. :D
 
Der Quad Core i7 im MBP kann locker mit den Quad Core Xeon CPUs von 2009 (!) mithalten.

...ein Xeon ist nichts anderes als ein Desktopprozessor, nur um eine multiprozessor-fähigkeit erweitet. Natürlich ist i7 schneller, weil es eine viel modernere Architektur ist.
 
....natürlich kann man einen Mercedes Sprinter mit einer BMW G650 vergleichen. Beide sind etwa 170 km/h schnell, aber ob der Vergleich Sinn macht ist die eigentliche Frage.

Eine CPU mit einem Auto zu vergleichen ist hier der Vergleich der keinen Sinn macht... ;)

....solche Grafikanwendung sagen nun nicht viel über die Leistung von CPUs aus, denn die Frage ist immer, wie und wo wird die Grafik in der Hardware umgesetzt und welche Technik verwendet das OS dazu.

Es geht nicht nur um Grafik sondern z.B. auch um den Videoschnitt; und hier ist schlicht und einfach die leistungsfähigere CPU der Core 2 Duo von Intel.

...wenn ich sehe, das ein 1080p-video absolut einwandfrei auf einem iPad läuft, dann wird klar, das dazu durchaus ein 1 GHz RISC-Prozessor ausreicht und plötzlich das kann, was 2005 ein 1,5 GHz RISC-Prozessor (G4, 1,5 GHz) nicht konnte.

Das hat mit dem Thema nix zu tun, also verdreh die Tatsachen nicht!
Hier geht es um die reine Software Decodierung von 1080p Videos. Von RISC CPUs mit Hardware Decodierung hat niemals jemand gesprochen.

...ein Xeon ist nichts anderes als ein Desktopprozessor, nur um eine multiprozessor-fähigkeit erweitet. Natürlich ist i7 schneller, weil es eine viel modernere Architektur ist.

Es geht um den mobile i7.
Und das ist nicht so selbstverständlich, dass der genauso schnell wie ein Desktop Xeon Prozessor von 2009 ist.
 
Zuletzt bearbeitet:
Das hat mit dem Thema nix zu tun, also verdreh die Tatsachen nicht!
Hier geht es um die reine Software Decodierung von 1080p Videos. Von RISC CPUs mit Hardware Decodierung hat niemals jemand gesprochen.
.

Da hast du völlig Recht, sonst könne ich hier auch mal kurz reinschmeissen: „Hey mein HD-Reciver hat nur 400 MHz, also reichen die um Full HD abzuspielen.“

Ich könnte theoretisch auch in einen Amiga den passenden Hardwarebeschleuniger reinnageln und HD Video gucken.
 
Eine CPU mit einem Auto zu vergleichen ist hier der Vergleich der keinen Sinn macht...

....ich habe ja auch keine CPU mit einem Auto verglichen, sondern ein Auto mit einem Motorrad um eine bildhaftes Beispiel für den Vergleich von einem Server-Prozessor mit einem Mobil-Prozessor zu finden.

Es geht nicht nur um Grafik sondern z.B. auch um den Videoschnitt; und hier ist schlicht und einfach die leistungsfähigere CPU der Core 2 Duo von Intel.

...nur brauchst du für Videoschnitt keine überaus leistungfähge CPU, sondern nur dafür, das geschnittene abschliessend in das gewünschte Endformat zu rendern. Und sicherlich ist der C2D beim rendern von videos leistungsfähiger. Aber er ist das weil die Software entsprechend entwickelt wurde. Wenn du das OS und die Software entsprechend programmierst, dann kann jede CPU das geschwind umsetzen.

Das hat mit dem Thema nix zu tun, also verdreh die Tatsachen nicht!
Hier geht es um die reine Software Decodierung von 1080p Videos. Von RISC CPUs mit Hardware Decodierung hat niemals jemand gesprochen.

...wie willst du das trennen? Wo findet den auf dem Mac "reine Software Decodierung" statt? Seit 10.5 findet auf dem Mac genauso eine Hardware-Decodierung statt. (Stichwort: core video) ...und genau da ist auch der Unterschied zwischen PPC und intel, denn das core video unterstützt halt nur die entsprechenden Hardwareschnittstellen auf der intel-plattform. Daher dreht ein Video, das auf nem intel-mac mit 5-10% Systemlast läuft auf nem PPC-Mac die Systemlast schnell auf 100%.
 
Nur so am Rande: Ich habe mir gestern Inglorious Basterds in 1080p auf dem MBP gegönnt, und es hat es alles Andere als spielend bewältigt.
Der Föhn ging nach drei Minuten an, die CPU Temperatur auf 70°C und die Auslastung dauerhaft über 60% auf beiden Kernen. ;)
 
Kommt natürlich auch drauf an, wie stark komprimiert das Videomaterial ist. Letztens gemerkt: 1080p Film auf 9.5GB komprimiert hat das kleine 13" gut ins Schwitzen gebracht, während bei "unberührten" Filmen in 1080p mit 20-30GB Größe nichtmal der Lüfter angeht.
 
Ok könntest Recht haben, is "nur" 7,7 GB groß bei über zweieinhalb Stunden Laufzeit.
 
Kommt natürlich auch drauf an, wie stark komprimiert das Videomaterial ist. Letztens gemerkt: 1080p Film auf 9.5GB komprimiert hat das kleine 13" gut ins Schwitzen gebracht, während bei "unberührten" Filmen in 1080p mit 20-30GB Größe nichtmal der Lüfter angeht.

...welche Datenrate hat denn so ein HD-Video, das 8-10 GB groß ist?

Ok könntest Recht haben, is "nur" 7,7 GB groß bei über zweieinhalb Stunden Laufzeit.

...das sind 6,85 MBit/s ..... ein 1080p Trailer auf Apple/Trailers mit 9,7 MBit/s erzeugt gerade mal 15-18% Systemlast (15" MBP i5)
...aber vielleicht liegt das dann an der vorhandenen Grafikkarte, die das 13" nicht hat.
 
Zuletzt bearbeitet:
Ja es geht mir auch nicht rein um den Durchsatz, der irgendwo nicht durchkommt sondern viel eher dass der Encoder ja mehr arbeiten muss, wenn stärker komprimiert ist ;)

Man merkt bei stark komprimierten 1080p Filmen richtig wie er manchmal leicht ins ruckeln kommt, wenn die Szene viele detaillierte Bewegungen enthält. (Explosionen zb.)
 
Ja es geht mir auch nicht rein um den Durchsatz, der irgendwo nicht durchkommt sondern viel eher dass der Encoder ja mehr arbeiten muss, wenn stärker komprimiert ist

Man merkt bei stark komprimierten 1080p Filmen richtig wie er manchmal leicht ins ruckeln kommt, wenn die Szene viele detaillierte Bewegungen enthält. (Explosionen zb.)

...vor allem kommt es darauf an, mit welchem codec kodiert wurde. Nicht jedes Codec wird auch von den Schnittstellen zur Hardware unterstützt, dann läuft der Film entsprechend nur auf der CPU. Das macht dann ordentlich Last.
 
...vor allem kommt es darauf an, mit welchem codec kodiert wurde. Nicht jedes Codec wird auch von den Schnittstellen zur Hardware unterstützt, dann läuft der Film entsprechend nur auf der CPU. Das macht dann ordentlich Last.

Ähm, eine Schnittstelle für Hardwarebescheunigung (bei H.264) bieten doch nur der 9400M, 320M und GT 330M, oder bin ich da auf dem Holzweg?

Ich erinnere mich auch noch dunkel daran das z.B. VLC bis 1.1.0 KEINE Hardbeschleunigung hatte (und dann nur eine für Win und Linux bekommen hat, aber nicht für OS X).
 
Zuletzt bearbeitet:
Die GPUs können bzgl. Videobeschleunigung viel mehr, als Apple ermöglicht.
Die Anzahl der unterstützen GPUs bzgl. Videobeschleunigung unter OS X ist recht klein. Und selbst die GPUs, die unterstützt werden, sind den in den Möglichkeiten nur kastriert. AFAIK wird nur H.264 unterstützt und selbst das AFAIK auch noch mit Einschränkungen.
Es gibt meine ich eine private API in Mac OS X, mit der man Vollzugriff hat. Jedenfalls in iOS gibt es die definitiv. Das XBMC-Projekt via Jailbreak nutzt die auch, anstatt diese verkrüppelte Apple API.
 
....ich habe ja auch keine CPU mit einem Auto verglichen, sondern ein Auto mit einem Motorrad um eine bildhaftes Beispiel für den Vergleich von einem Server-Prozessor mit einem Mobil-Prozessor zu finden.

Eine Desktop CPU mit einem Auto und eine mobil CPU mit einem Motorrad zu vergleichen ist allerdings noch weltfremder als der Vergleich der beiden ohne dies "bildhafte" Beispiel... ;)

...nur brauchst du für Videoschnitt keine überaus leistungfähge CPU, sondern nur dafür, das geschnittene abschliessend in das gewünschte Endformat zu rendern.

Doch brauche ich, da ich keine Lust habe jedes mal wenn ich einen anderen Filter über einen Clip zieh den ganzen Spass neu zu rendern.
Das sollte die Kiste auch "on the flow" abspielen können.

Willst du mir jetzt erzählen was für meine Arbeit brauche?
Es ging darum welche CPU beim Arbeiten mehr Power bringt. Und das ist bei mir der Intel. Punkt.

Und sicherlich ist der C2D beim rendern von videos leistungsfähiger. Aber er ist das weil die Software entsprechend entwickelt wurde. Wenn du das OS und die Software entsprechend programmierst, dann kann jede CPU das geschwind umsetzen.

Das ist Quatsch; die CS1 oder CS2 sind für die PPCs programmiert worden, ebenso wie 10.4.

...wie willst du das trennen? Wo findet den auf dem Mac "reine Software Decodierung" statt?

Das hat mit meiner Aussage auch nichts zu tun.
Du weichst wieder von Thema ab.

Ich habe gesagt, dass die ersten Core (2) Duos 1080p ruckelfrei abspielen konnten und die G5 nicht. Nicht mehr und nicht weniger.
Und unter 10.4 wurde eben nicht Hardware Decodiert.
Auch nicht unter 10.5 oder 10.6 oder 10.7, da die Intel GMA das nicht unterstützt.
 
Zuletzt bearbeitet:
Während das ein PowerBook spielend bewältigt hätte, oder was willst Du sagen?

Alex
 
Auch nicht unter 10.5 oder 10.6 oder 10.7, da die Intel GMA das nicht unterstützt.

Die alten GMAs unterstützen auch schon eine Form der Hardwarebeschleunigung von Videos. Ist aber egal, denn der Punkt ist, dass deine Aussage hier völlig falsch ist.
Der Hauptgrund mangels Unterstützung liegt auf der Seite von Apple. Apple macht immer dick Werbung mit Sprüchen wie "fortschrittlichstes OS der Welt" aber so etwas wie Videobeschleunigung kann Mac OS X erst seit einiger Zeit (und nach wie vor zumindest offiziell nur eingeschränkt).
GPUs können schon seit Jahren das Dekodieren von Videos unterstützen, wenn vielleicht auch nicht wie die aktuellen GPUs. Microsoft hatte eine entsprechende Schnittstelle schon vor ca. 10 Jahren in Windows.
 
Zurück
Oben Unten