Erster Doom 3 Benchmark auf dem Mac

newman schrieb:
Zu bearfeats sag ich jetzt einfach mal nichts, mag sich jeder seine Meinung selbst bilden. Bei systemoptimierten Photoshop Tests krieg ich immer das große Gähnen, ebenso gut kann man den DOOM 3 Test heranziehen. Das einzige was wirklich zählt sind SPECs und da sah es, wenn ich mich recht an einen ct-Test erinnere, für den Dual 2GHz "schnellste Rechner der Welt" G5 gegen einen Pentium IV 3200 eher schlecht aus.

Ja, oder RC5 (ist aufm Mac schneller), oder C4D (da halten sich beide Plattformen die Waage), oder SETI (wo der PC wieder die Nase vorn hat).

Es kommt immer auf die optimierung an. Viele Programme sind auf SSE2 optimiert, nur wenige auf Altivec. Aber wie gesagt das liegt am Compiler und solange der von Intel einfach besser ist wird sich daran nicht viel Ändern, außer Apple kommt mit Quad-Systemen, wobei ein besserer Compiler in meinen Augen die bessere Sache wäre.

Gruß

Nicolas
 
NicolasX schrieb:
Kann dir nur Zustimmen Newman.

Allerdings kann sich die Sache ganz schnell Ändern, wenn die neuen PPC970MP (die IBM gerade entwickelt) eingesetzt werden. In den neuen CHUD Tools war ein Hinweis auf Quad G5's, ich denke mal das es einen Mac mit 2 Dual Core 970MP (1MB cache) in naher Zukunft geben wird.

Wenn eine Portierung dann auf SMP und Altivec "getrimmt" ist, wird der Unterschied nicht mehr so Groß sein ;)

Es wird auch endlich Zeit, das IBM mal nen besseren Compiler entwickelt,
der von Intel ist nach wie vor "State of the Art" was die Optimierung angeht. Zweitens, ist PCIe dem im Mac verwendeten PCIX um Meilen überlegen.

Wenn es um den "workflow" geht und nicht um "Raw Power" (beim Arbeiten) kommt mir der Mac allerdings schneller vor.

Gruß

Nicolas

Seti finde ich keinen so schlechten Anhaltspunkt für "Raw Power" aber du hast natürlich recht, ohne wirklich guten Compiler ist es immer nachteilig für den PowerPC.

Leistung ist nicht alles, wird doch ohnehin nur von wenigen benötigt (wenn man von Spielen absieht). Beim Arbeiten kann mein Mac seine Vorteile voll ausnützen. Mit dem Workflow bin ich etwas vorsichtiger, innerhalb der Programme, z.B. Photoshop auf dem Mac und dem PC, ist da Null Unterschied. Was mir auf dem Mac mit am meisten hilft ist, ob man es glaubt oder nicht, Expose. Für meinen Anwendungsbereich mit Tonnen von offenen Fenstern und Apps ist das ein Killer-Feature.
 
newman schrieb:
Mit dem Workflow bin ich etwas vorsichtiger, innerhalb der Programme, z.B. Photoshop auf dem Mac und dem PC, ist da Null Unterschied.

Ich meinte, wenn man an einem Projekt arbeitet bei dem man mehrere Apps, gleichzeitig in gebrauch hat, z.B. du jumpst von Illustrator nach QXP oder PS dann wieder zurück, öffnest nochmal den "Verleger" machst Änderungen und wieder zurück zu QXP und so weiter..... (in OS9 oder X)

Einheitliche Tastenkürzel usw.

Kommt mir am Mac stabiler vor als am PC, ist aber vielleicht nur subjectiv.

Und Expose ist echt genial in X.

Gruß

Nicolas

BTW bei SETI schaft mein MDD Dual zwei WU's in 6,5h (unterstützt ja kein SMP also 2 Comand Line clients.)
 
Zuletzt bearbeitet:
Ich persönlich finde die Performanceunterschiede zwischen Mac & PC nicht so schlimm. Ich brauche nicht alle Effekte und auf mittleren Einstellungen sehen heutige Spiele auch noch gut genug aus.
Was mich viel mehr ärgert sind die Preise. Splinter Cell Mac: 50 €, PC: 5 €. Reicht es nicht doppelt so viel zu zahlen?
Ich kann mich auch noch an eine Zeit erinnern, wo Mac-Spiele nach ein paar Monaten nur noch die Hälfte kosteten, aber mittlerweile dauert es mehrere Jahre. Selbst für Mac-Verhältnisse alte Kamellen wie Ghost Recon werden noch 50 € fällig, aber Hallo. Das sind doch Monopol- bzw. Mondpreise?
Und warum gibt es in den USA so viel mehr Mac-Spiele zu weit niedrigeren Preisen als in Deutschland? Ich sage nur NOLF 2 für 5 $. Warum gibt es hier keinen deutschen Vertrieb für US-Games. Ich brauche keine deutsche Lokalisierung.
Hier muss mehr Konkurrenz ins Geschäft. Aber unter Mac-Usern wird ja nicht mal getauscht...
 
newman schrieb:
Zu bearfeats sag ich jetzt einfach mal nichts, mag sich jeder seine Meinung selbst bilden. Bei systemoptimierten Photoshop Tests krieg ich immer das große Gähnen, ebenso gut kann man den DOOM 3 Test heranziehen. Das einzige was wirklich zählt sind SPECs und da sah es, wenn ich mich recht an einen ct-Test erinnere, für den Dual 2GHz "schnellste Rechner der Welt" G5 gegen einen Pentium IV 3200 eher schlecht aus.

Das stimmt meines Erachtens so nicht für den P4. Der Cinebench ist ein raytracer, bei dem es um reine CPU Leistung geht. Du kannst den Test im single Betrieb und mit Multiprozessorunterstützung machen. Wie bereits geschrieben, habe ich das ganze mit einem Freund selbst ausprobiert. Im single mode benötigt der G5 1.8 ca. 100s, der Dell P4 3.2 HT 83s. Bei 1.8 Ghz hätte der P4 also ca. 147s benötigt! Oder anders herum: der G5 hätte 83s bei ca. 2.16 GhZ und nicht erst bei 3.2 Ghz erreicht. Nochmal, ich spreche single CPU Test.

Ein dual G5 2.5 Ghz müsste demnach ca. 72s mit einer CPU und etwa 36-38s mit beiden CPU's benötigen. Das zeigt deutlich, dass der P4 eigentlich eine veraltete CPU ist, die nur 'hochfrisiert' wurde. Übrigens, laut Hersteller soll der Cinebench (G5 beta) - mangels guter compiler - immer noch nicht optimal auf den G5 abgestimmt sein. Wenn sich da noch 10% - 20% herausholen lassen, sieht der P4 immer mieser aus.

Was den spec test angeht, wäre ich vorsichtig. Auch AMD behauptet, dieser sei für Intel optimiert. Soweit ich mich erinnere, wurde der c't Test für mac mit dem freeware compiler gcc (!) compiliert. Der gilt nicht gerade als besonders schnell. Insbesondere die G5 Unterstützung ist missraten.
 
StGB schrieb:
Das stimmt meines Erachtens so nicht für den P4. Der Cinebench ist ein raytracer, bei dem es um reine CPU Leistung geht. Du kannst den Test im single Betrieb und mit Multiprozessorunterstützung machen. Wie bereits geschrieben, habe ich das ganze mit einem Freund selbst ausprobiert. Im single mode benötigt der G5 1.8 ca. 100s, der Dell P4 3.2 HT 83s. Bei 1.8 Ghz hätte der P4 also ca. 147s benötigt! Oder anders herum: der G5 hätte 83s bei ca. 2.16 GhZ und nicht erst bei 3.2 Ghz erreicht. Nochmal, ich spreche single CPU Test.
x86 und PowerPC sind völlig verschiedene Technologien, nämlich CISC und RISC. Auf gleiche Taktfrequenz hochrechnen bringt da nichts. Wenn du Prozessoren vergleichen willst, nimmt man nicht welche mit gleicher Taktrate, sondern die zurzeit auf dem Markt verfügbaren Top-Model der Hersteller.
StGB schrieb:
Das zeigt deutlich, dass der P4 eigentlich eine veraltete CPU ist, die nur 'hochfrisiert' wurde.
Der P4 ist im Vergleich zum P3 ein völlig neues CPU Design von Intel gewesen. Es war einfach mal ein komplett neuer Ansatz, mit einer extrem langen Pipline, dafür aber hoher Taktrate.
 
Zuletzt bearbeitet:
mkninc schrieb:
x86 und PowerPC sind völlig verschiedene Technologien, nämlich CISC und RISC. Auf gleiche Taktfrequenz hochrechnen bringt da nichts. Wenn du Prozessoren vergleichen willst, nimmt man nicht welche mit gleicher Taktrate, sondern die zurzeit auf dem Markt verfügbaren Top-Model der Hersteller.

Warum ? Der von mir beschriebene Test zeigt doch deutlich, dass der P4 3.2 leistungsmäßig irgendwo im Bereich des G5 2.0 liegt. Du kannst sicher nicht die Taktraten direkt miteinander vergleichen. Die 'Effizienz' der CPU wird aber schon sichtbar. RISC oder CISC, ist das heute noch ein Thema ? Kann der G5 nicht auf Maschinenebene extrem komplexe Befehle ausführen, wie etwa Wurzeln berechnen, was völlig untypisch für ein RISC CPU ist ? Außerdem, müsste nicht eigentlich die CISC-CPU - wegen der komplexen Befehlsstruktur - bei niedrigem Takt einen hohen output haben und umgekehrt, die RISC CPU sehr schnell sehr einfache Befehle ausführen. Im Falle von G5 und P4 ist es ja wohl gerade umgekehrt.

Der P4 ist mit Sicherheit keine moderne CPU, eher ein Marketing-Gag. Intel hatte mit seinem P3 das GHZ Rennen gegen AMD verloren und in dieser Not den P3 vereinfacht, um höhere Taktraten erzielen zu können. Wichtig war nur, dass viel GHZ drauf steht - halt Marketing.
 
€StGB

Die Benchmarks kann man hin- und herschieben, je nachdem welchem man traut. Ich vertraue der ct jedoch deutlich mehr als einem Benchmark des Herstellers.

Meine eigenen Erfahrungen zeigen in Photoshop deutliche Schlagseite Richtung PC, allerdings ist da immer das Problem das man die Prozessoren nicht ganz exakt vergleichen kann.

Killerargument ist jedoch, bei den heutigen knappen Kassen, der Preis. Mörder-Rechenleistung bekommt man (wenn man es unbedingt braucht) beim PC für 'nen Appel und ein Ei nachgeworfen, mit dem Athlon 64 ist das Teil noch nicht mal so laut (G5 sind auch nicht leise, schon gar nicht Dual G5). Ein voll ausgestatteter PowerMac Dual G5 2.5 GHz, na ja, da lasse ich mich jetzt nicht drüber aus.

Trotzdem ist mir persönlich der Mac lieber, auch wenn ich gelegentlich mal eine Sekunde warten muss. Ein Dual G5 PowerMac kommt mir wegen der Geräuschentwicklung nicht auf/unter den Schreibtisch, deshalb hab ich den Mini gekauft. So viel Photoshop mach ich nun auch nicht, mehr Entwicklung, da hab ich mit dem Kleinen derzeit keine Probleme.

Grüße,

newman

PS: Und meiner ist DOCH länger! ;-)
 
StGB schrieb:
Der P4 ist mit Sicherheit keine moderne CPU, eher ein Marketing-Gag. Intel hatte mit seinem P3 das GHZ Rennen gegen AMD verloren und in dieser Not den P3 vereinfacht, um höhere Taktraten erzielen zu können. Wichtig war nur, dass viel GHZ drauf steht - halt Marketing.
Dann les mal diesen Artikel http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=1301
und nenn mir die Punkte, in welchen der P4 ein vereinfachter P3 ist.
 
mkninc schrieb:
Dann les mal diesen Artikel http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=1301
und nenn mir die Punkte, in welchen der P4 ein vereinfachter P3 ist.

Sorry, möglicherweise ist der link nicht richtig oder ich kann um diese Uhrzeit nicht mehr richtig lesen. Aber ich finde dort ein erster Line Infos zum AMD K7 und ein paar kurze Sätze zum Willamate (ich vermute P4). Aber warum stellst Du das in Frage? AMD hat längst einen 64 bit Prozessor, Apple hat einen 64 bit Prozessor. Nur Intels P4 ist noch 32bit. Warum ? Man hat einfach den alten P3 ein bischen geliftet, aber keine neue CPU entwickelt. Warum braucht Intel 3.2 Ghz, wofür AMD und IBM vieleicht 2.2 Ghz benötigen ? Welches Design ist wohl zukunftsfähiger ? Bereits relativ geringe Taktfrequenzerhöhungen beim G5 (übrigens auch bei AMD) dürfte wohl reichen, um Intel deutlich zu distanzieren. Einen G5 3.0 würde AMD wohl G5 4600+ nennen, zu Recht übrigens.
 
StGB schrieb:
Sorry, möglicherweise ist der link nicht richtig oder ich kann um diese Uhrzeit nicht mehr richtig lesen. Aber ich finde dort ein erster Line Infos zum AMD K7 und ein paar kurze Sätze zum Willamate (ich vermute P4). Aber warum stellst Du das in Frage? AMD hat längst einen 64 bit Prozessor, Apple hat einen 64 bit Prozessor. Nur Intels P4 ist noch 32bit. Warum ? Man hat einfach den alten P3 ein bischen geliftet, aber keine neue CPU entwickelt.
Sorry, aber wer behauptet ein P4 ist ein gelifteter P3 hat keine Ahnung. Der Artikel hat übrigens mehr als eine Seite . Nur als Beispiel, 20 vs. 10 stufige Pipline. Das ist IMHO nicht nur eine kleine Änderung im Design. L1 Cache ist auch völlig anders. Beim P4 sind dort nämlich schon dekodierte Befehle/Daten drin. Und auch sonst ist sehr viel anders.
StGB schrieb:
Warum braucht Intel 3.2 Ghz, wofür AMD und IBM vieleicht 2.2 Ghz benötigen ?
Weil es unterschiedliche CPU-Designs sind, mit unterschiedlichen Strategien, wie man eine hohe Performance erreicht. Grob beschreiben könnte man es mit einfacherm CPU Aufbau mit hohen Taktraten vs. komplexere CPU dafür niedrigere Taktraten.
StGB schrieb:
Welches Design ist wohl zukunftsfähiger ? Bereits relativ geringe Taktfrequenzerhöhungen beim G5 (übrigens auch bei AMD) dürfte wohl reichen, um Intel deutlich zu distanzieren. Einen G5 3.0 würde AMD wohl G5 4600+ nennen, zu Recht übrigens.
Wenn Intel die Verlustleistung in den Griff bekommen würde, IMHO das Intel-Design. Mit AMDs Design wird es jedenfalls immer schwieriger, die Taktfrequenz zu erhöhen. Und wie du siehst hab ich selbst einen AMD, aber dieses ewige rummäkeln an den hohen Taktraten nervt.
 
mkninc schrieb:
Sorry, aber wer behauptet ein P4 ist ein gelifteter P3 hat keine Ahnung. Der Artikel hat übrigens mehr als eine Seite . Nur als Beispiel, 20 vs. 10 stufige Pipline. Das ist IMHO nicht nur eine kleine Änderung im Design. L1 Cache ist auch völlig anders.

Da kann man jetzt lange diskutieren. Für mich ist ein bischen an pipline und cash 'rumfrickeln' nichts anderes als Klarglasscheinwerfer an ein altes Automodell anbringen. Richtig ist, dass Intel mit seinem design bisher höhere Taktraten erreicht hat und diese auch erreichen musste, um nicht zur Lachnummer zu werden. Ob sich die Taktrate des P4 noch großartig steigern lässt ? Dagegen spricht, dass Intel in Zukunft auf die Angabe von Taktraten im Namen der CPU verzichten will. Offenbar will man nicht mehr die Frequenz steigern, sondern endlich mal den CPU Kern überarbeiten.
 
StGB schrieb:
Da kann man jetzt lange diskutieren. Für mich ist ein bischen an pipline und cash 'rumfrickeln' nichts anderes als Klarglasscheinwerfer an ein altes Automodell anbringen.
Stimmt, die Autobauer haben auch so gut wie nie neue Modelle rausgebracht. Sind ja schliesslich immer noch 4 Räder dran, das kann ja nichts neues sein.
 
Doom 3 nur für Xbox kaufen :) Doom3 wurde extra für die Xbox neu geschrieben. Wo hat man so was schon?
Nebenbei wurden noch nicht bekannte Codecs vom GK Chip "gefunden", die die Grafik auf der Xbox um längen besser aussehen lässt, als bisher angenommen. Kein Ruckeln und zuckeln und das beste Onlinegame. Da kommt kein PC oder Mac mit.

Motti *am 6.4 das Game kauft*
 
Zuletzt bearbeitet:
newman schrieb:
€StGB
Die Benchmarks kann man hin- und herschieben, je nachdem welchem man traut. Ich vertraue der ct jedoch deutlich mehr als einem Benchmark des Herstellers.

Killerargument ist jedoch, bei den heutigen knappen Kassen, der Preis. Mörder-Rechenleistung bekommt man (wenn man es unbedingt braucht) beim PC für 'nen Appel und ein Ei nachgeworfen, mit dem Athlon 64 ist das Teil noch nicht mal so laut (G5 sind auch nicht leise, schon gar nicht Dual G5). Ein voll ausgestatteter PowerMac Dual G5 2.5 GHz, na ja, da lasse ich mich jetzt nicht drüber aus.

Hi Leute, ich spreche nicht von Herstellerbenchmarks und nicht von c't benches. Ich habe es schlicht mit cinebench selbst ausprobiert. Hier noch einmal ein paar Zahlen zu povray, ebenfalls ein raytracer, der fast ausschließlich die CPU beansprucht.

Mein Siemens P4 HT 2.8 benötigt für den povbench ca. 35 min, der PM G5 1.8 ca. 36 min. Povray ist nicht für den G5 optimiert. Es wird nur eine CPU verwendet, da nur ein thread läuft. Das kann man klar an der CPU Auslastung sehen. Als Daumenregel kann man also festhalten, dass ein G5 single in etwa die Performance eines P4 2.8 hat - ohne Optimierung! Man kann einen raytracer leicht Paralellisierung, in dem man das Programm zwei mal startet und immer nur eine Hälfte des Bildes berechnet. Der dual G5 1.8 sollte dann nach etwa 18 - 19 min fertig sein. Das entspricht einem P4 mit ca. 5.5 Ghz ! Jeder kann sich jetzt leicht ausrechnen, was ein G5 2.5 dual bringen kann - wie gesagt, sogar ohne Softwareoptimierung. Ich denke, ein Rechner auf x86 Basis, der Vergleichbares leistet, ist nicht günstiger als ein Mac.

Was die Lautstärke des PM G5 1.8 dual angeht, kann ich nur sagen: Es ist der leiseste Rechner den ich jemals hatte. Es praktisch nicht hörbar. Mein Siemens P4 ist deutlich lauter. Möglicherweise habe ich da Glück gehabt, da es anscheinend zahlreiche dual's gibt, die massive Lüfterprobleme haben.
 
MotMann schrieb:
Doom 3 nur für Xbox kaufen :) Doom3 wurde extra für die Xbox neu geschrieben. Wo hat man so was schon?
Nebenbei wurden noch nicht bekannte Codecs vom GK Chip "gefunden", die die Grafik auf der Xbox um längen besser aussehen lässt, als bisher angenommen. Kein Ruckeln und zuckeln und das beste Onlinegame. Da kommt kein PC oder Mac mit.

Motti *am 6.4 das Game kauft*

Ähm, du bedenkst aber schon das die Xbox keine sonderlich hohe Auflösung verglichen mit Mac oder PC bietet ?

Ich finde das Spiel einfach nur langweilig. Man rennt durch Gänge bis man kurz davor ist vor der Kiste einzunicken und dann kommt ein Monster aus einer dunklen Ecke und mann ist kurzzeitig wieder hellwach, das ist alles was DOOMIII, neben der "schönen" Grafik, zu bieten hat. HL2 sieht besser aus und macht mehr Spaß.
 
efx schrieb:
Ähm, du bedenkst aber schon das die Xbox keine sonderlich hohe Auflösung verglichen mit Mac oder PC bietet ?
Ja und? Du guckst doch auch TV auf Deinem TV..... und ein TV ist größer als so ein lüdder Monitor, bringt also mehr fun und Atmosphäre, was durch 5.1 noch gut ergänzt wird.

Und, DOOM 3 bietet auf der Xbox eine geniale MP Situation.. denkst Du auch daran?

Motti *wenn zocken, dann nur Konsole*
 
Zuletzt bearbeitet:
MotMann schrieb:
Ja und? Du guckst doch auch TV auf Deinem TV..... und ein TV ist größer als so ein lüdder Monitor, bringt also mehr fun und Atmosphäre, was durch 5.1 noch gut ergänzt wird.

Und, DOOM 3 bietet auf der Xbox eine geniale MP Situation.. denkst Du auch daran?

Motti *wenn zocken, dann nur Konsole*

Egoshooter mit Joystick? Gegen Mausspieler ist man da höchstens Fragfutter. :D
 
startet das spiel auf einem imac G4 1,25 überhaupt? also freigegeben?
 
peppermint schrieb:
startet das spiel auf einem imac G4 1,25 überhaupt? also freigegeben?

Was ich gehört habe, gibt es da keine eingebauten Schranken, aber ohne 64 MB Videospeicher wird das Spiel nicht laufen oder nur mit halben Texturen.
 
Zurück
Oben Unten