CPU-Benchmarks G4/G5 gegen Intel/AMD

Wenn ich jemand zum Thema Mac OS X glaube, dann ist es ._ut :D
 
Ja ja ja. Und meiner ist einen Zentimeter länger :D. Das was wirklich zählt ist doch nicht, was in irgendwelchen getürkten Tests steht, sondern es zählt die gefühlte Geschwindigkeit. Und die ist um !Längen! höher´(Vgl. 867 Mhz Powerbook gegen AMD 2 Ghz). Nicht umsonst setze ich mich lieber vor einen 12 Zoll Bildschirm, wenn ein 17 Zöller Tft im Zimmer steht. Alles Blödsinn? Nö. Ist einfach so. Kein Benchmark der Welt ersetzt mein Gefühl ;).

Was soll das erst werden, wenn mein neuer iMac ankommt?! Letzte Woche habe ich diese (im Benchmark bessere) Dose in den Keller verbannt. Hm. Warum wohl? Der Benchmark war doch besser :D

Viele Grüße
Ricky
 
Also, mal zur Klarstellung:
Als sich mein Schwager letzte Woche für privaten Einsatz ein notebook bestellt hat, habe ich ihm ein 12""-Powerbook der aktuellen Alu-Generation vorgeschlagen. Ausreichend schnell, ergonomisch, leise, hübsch und wohnzimmertauglich. Ich bekam zur Antwort, das sei ein besserer Sharp PDA.
Jetzt hat er ein HP-notebook mit Desktop-Pentium4-CPU und wundert sich über den Lüfterlärm. Ich will ja nicht schadenfroh sein, aber..... hähäha....... :D

Meine Desktop-Rechner sind an distributed-computing-Projekten beteiligt. Für besagten Schwager habe ich gerade einen Athlon 64 3000+ zusammengebaut. Und ich sage euch, das Baby macht vier setihome@classic-workunits pro Nacht (ca. 8-9 Stunden). cumber

Da ich den PowerMac G5 elegant finde, soll er im März nächsten Jahres nach dem nächsten Modell-Upgrade (90nm-CPU, kein singendes Netzteil mehr etc.) die SGI Octane beim Crunchen ablösen. Neben seti@home gibt es z.B. noch die Klimamodelle von www.climateprediction.net, die auf einem aktuellen Rechner zwei Wochen rund um die Uhr mit 100% CPU-Last laufen, bis ein Durchgang fertig ist.
Na ja, man gönnt sich ja sonst nichts ....... :cool:

Und deshalb sind CPU-Benchmarks bei der Auswahl des nächsten Desktop-Rechners für mich wichtig. Das gilt aber genauso für professionelle User, die rechenintensive Anwendungen einschließlich hoher Fließkommaanteile laufen lassen wollen.
Ein G5 ist schneller als ein G4, denn andernfalls hätten wir ja alle beim Apple II aus den achtziger Jahren stehenbleiben können. Ohne die eklatanten Fortschritte bei der CPU-Leistung gäbe es auch kein MacOSX. Auf meinem alten AppleII im Keller läuft übrigens MS-DOS. :rolleyes:

By the way:
Hat jemand hier im Forum distributed-computing-Projekte (seti@home, climateprediction, folding@home) auf seinem Dual-G5 laufen ? Wenn ja, setzt der PowerMac eine oder alle beide CPUs ein ?
 
Zuletzt bearbeitet:
._ut schrieb:
Und, nein, unter Mac OS X müssen Programme nicht speziell für SMP-Systeme programmiert werden, das System übernimmt das von sich aus. (Außer CarbonCFM, da müssen die Multiprozessorlibrarys des Code Fragment Managers extra angesprochen und die Programme entsprechend angepasst werden.)
Wenn eine Anwendung in nur einem einzigen Thread läuft, soll OSX daraus plötzlich und ganz von selbst zwei Threads machen? Klaro....


ulenz schrieb:
Das ist mir neu, und ich werde es mal nachprüfen. Für dieses Feature habe ich damals das BeOS so sehr bewundert.
BeOS lief so flüssig, weil es die Anwendungsentwickler dazu gezwungen hat, Programme multi-threaded zu programmieren. Jedes Fenster lief in einem seperaten Thread und das hat einige Entwickler zur Verzweiflung getrieben, weil es mehr Aufwand bedeutet. Angeblich hatte Steinberg deswegen den Port von Cubase eingestellt.
 
Zuletzt bearbeitet:
hmmm, habe schon oft gelesen, dass gerade after effekts das am schlechtesten portierte programm auf dem mac ist...

auch wenn manche meinen, dass alles was im c´t steht zu gebrauchen ist...

...kann ich mich sehr gut über einen c´t artikel erinnern, der alle benchmarks in zweifel zieht und das war zu der zeit, als apple behauptete den schnellsten rechner der welt zu haben... da gab es einen verdammt langen artikel darüber wie benchmarks auf verschiedene computer hin angepasst werden können, so dass sie die besten leistungen erzielen... so passt apple die benchmarks auf ihre rechner an und intel ebenso auf ihre... die toleranz des erlaubten ist dort ganz weit gesetzt und darum kam gerade c´t damals zu dem schluss, dass solange es keine einheitlichen richtlinien für benchmarks gibt diese keinen aufschluss auf die wirkliche rechenleistung eines computers geben...

folglich müsste c´t auf veröffentlichung von benchmarks komplett verzichten... da nach ihrer aussage, benchmarks nicht zwingend was über die leistungsfähigkeit eines computers aussagen...

tjo, de
otis
 
KAMiKAZOW schrieb:
Wenn eine Anwendung in nur einem einzigen Thread läuft, soll OSX daraus plötzlich und ganz von selbst zwei Threads machen? Klaro....
Versuch mal einen Cocoa-Programm mit nur einem Thread zu programmieren.

Edit
In einer ähnlichen Diskussion in einem anderen Forum hat mal ein Diskussionsteilnehmer ein entsprechendes Beispiel gebracht. Er hat dafür den Quellcode eines einfachen Cocoa-Programmes gepostet (leider finde ich den Beitrag nicht mehr). Ca 15 Zeilen Objective-C-Code, drei NS-Klassenaufrufe. Das Programm hat ein JPG geöffnet, in TIFF umgewandelt und das 1000 Mal. Nix optimiert, kein spezieller Multiprozessorcode. Das Programm lief automatisch auf zwei CPUs, wenn zwei vorhanden waren.


Zu seti@home:
Der seti@home-Client für den Mac ist null optimiert, nutzt nicht einmal die Altivec-Einheit. Seitens seti@home besteht da auch kein Optimierungsbedarf, da sowieso mehr Rechenzeit zur Verfügung steht, als Workunits vorhanden sind.
 
Zuletzt bearbeitet von einem Moderator:
Meine Erfahrung mit SMP Systemen hat mir gezeigt daß die Systeme generell etwas flüssiger laufen als Single-CPU-Systeme, selbst wenn die Prozessoren eher langsam sind. Ist ja auch irgendwie klar, ein OS wie OS X hat ja immer mehrere Prozesse/Threads laufen. Eine einzelne Applikation die aus einem einzigen Thread besteht hat von mehreren Prozessoren natürlich nichts (ausser sie ist speziell für SMP programmiert), aber wenn neben der Hauptapplikation zum Beispiel mal eben ein cron-job losrennt o.ä. ist ein SMP-System deutlich weniger gestresst als eins mit nur einer CPU.
Zum Numbercrunchen benutzen wir hier allerdings auch nur Opteron- bzw. Xeon-Maschinen, da das Preis/Leistungsverhaeltnis für diesen speziellen Einsatzzweck einfach besser ist. Für Multipurpose finde ich Macs von der Produktivität unerreicht, auch wenn die CPUs in irgendwelchen Benchmarks nicht ganz vorne sind.
 
So, wenn ich die technisch anspruchsvollen Aussagen einiger Forumsmitglieder hier richtig interpretiere, landen wir doch wieder bei meiner ursprünglichen Aussage:

Nur ein Teil der MacOSX-Programme auf dem Markt kann zwei Prozessoren gleichzeitig einsetzen, weil sie speziell für Multithreading programmiert wurden. Und zwar mit Hilfe der von .ut erwähnten Carbon/Cocoa-Technologie, oder was auch immer. Ach ja: So etwas gibt es unter Windows XP Professional und höher, Linux oder FreeBSD etc. natürlich auch. Der Programmieraufwand für dieses Multithreading dürfte natürlich um einiges höher sein. Und ob die hierfür ausgelegten Compiler billig sind, wage ich zu bezweifeln. Folglich dürfte vorwiegend teure Profi-Software entsprechend programmiert sein.

Und für das Thema "CPU-Benchmark" würde ich daraus folgendes schließen:

Bei speziell hierfür programmierter Software kann der G5 beide CPUs einer einzigen Anwendung zur Verfügung stellen. Dann erreicht oder übertrifft der G5 das Leistungsniveau der schnellsten Intel/AMD-Prozessoren als EINZELprozessoren.
Reicht diese Leistung aus, spricht nichts gegen den Einsatz des PowerMac G5 und seines anwenderfreundlichen MacOSX.

Wenn ich hingegen pure Rechenleistung ohne Ende brauche, z.B.bei bestimmten Strömungssimulationen , der Berechnung des Urknalls etc. fahre ich mit einem Dual-Opteron bzw. Dual-Xeon-System besser. Billig wird das allerdings auch nicht.
 
Zuletzt bearbeitet:
ulenz schrieb:
Wenn ich hingegen pure Rechenleistung ohne Ende brauche, z.B.bei bestimmten Strömungssimulationen , der Berechnung des Urknalls etc. fahre ich mit einem Dual-Opteron bzw. Dual-Xeon-System besser. Billig wird das allerdings auch nicht.
Also Leute...
Irgendwo oben wurde die Frage gestellt, was der Fred nun in der Bar zu suchen hat. Da gehört er hin.
Wer von uns berechnet bitte Strömungssimulationen und den Urknall auf seinem heimischen Rechner? Für die, die es wirklich (professionell) tun, dürfte der Preisunterschied nun wirklich die geringste Rolle spielen. :rolleyes:

ad
 
lol

auf den . gebracht
 
ulenz schrieb:
Nur ein Teil der MacOSX-Programme auf dem Markt kann zwei Prozessoren gleichzeitig einsetzen, weil sie speziell für Multithreading programmiert wurden. Und zwar mit Hilfe der von .ut erwähnten Carbon/Cocoa-Technologie, oder was auch immer. Ach ja: So etwas gibt es unter Windows XP Professional und höher, Linux oder FreeBSD etc. natürlich auch. Der Programmieraufwand für dieses Multithreading dürfte natürlich um einiges höher sein. Und ob die hierfür ausgelegten Compiler billig sind, wage ich zu bezweifeln. Folglich dürfte vorwiegend teure Profi-Software entsprechend programmiert sein.
Das Gegenteil ist der Fall.
Carbon Mach-O- und Cocoa-Programme werden mit der mitgelieferten, kostenlosen Enwicklungsumgebung XCode erzeugt.
Carbon-CFM-Programme werden idR mit einer älteren Version von CodeWarrior erzeugt. Die aktuelle Vollversion kostet 599$ (sie kann jetzt auch Carbon-Mach-O-Programme erzeugen.)

Carbon-Mac-O und Cocoa sind die Standardprogrammungenungen auf Mac OS X. Carbon CFM ist lediglich als Migrationsumgebung für Programme, die alten Mac-OS-Code verwenden, gedacht.

Also: Nur Programme, die auf Mac-OS-Code basieren (oder auf Windows-Code) und noch nicht vollständig auf Mac OS X portiert sind, müssen extra auf den Multiprozessorbetrieb angepasst werden.
Wenn ich hingegen pure Rechenleistung ohne Ende brauche, z.B.bei bestimmten Strömungssimulationen , der Berechnung des Urknalls etc. fahre ich mit einem Dual-Opteron bzw. Dual-Xeon-System besser. Billig wird das allerdings auch nicht.
Auch das ist nicht richtig. Wenn Du mal einen Blick auf die Top500-Liste wirfst, wirst Du feststellen, dass Xeon- oder Opteron-Systeme gut die doppelte Zahl an Prozessoren bei höherer Taktung brauchen, um die gleiche Rechenleisteung zu erreichen, wie PowerPC-Systeme.
 
Zuletzt bearbeitet von einem Moderator:
admartinator und otis:
Das alte Problem auf macuser.de:
Unerwünschte Wahrheiten werden ins Lächerliche gezogen, wenn man sie nicht widerlegen kann. Abgesehen davon gibt es ja möglicherweise außer euch beiden "Experten" noch Leute, die den G5 im professionellen Sektor entsprechend einsetzen könnten. Sogar bei 3D-Computerspielen spielt die reine CPU-Leistung eine Rolle, weil Highend-Grafikkarten andernfalls ihre Leistung nicht voll entfalten könnten. Und solche profanen Anwendungsbereiche wie Videoschnitt, Animation oder CAD sollten im allgemeinen auch von einer hohen Rechenleistung profitieren können.
Vielleicht möchtet ihr euch ja auch nur an einem simplen Fraktalgenerator erfreuen. Je höher die Fließkommaleistung der CPU, um so schneller ist das putzige Apfelmännchen etc. fertig.

.ut:
Du bist in diesem Beitrag hier ausdrücklich NICHT angesprochen, da du dich um eine sachliche, informative Diskussion bemüht hast. Insoweit vielen Dank. :)
 
Zuletzt bearbeitet:
ulenz schrieb:
Vielleicht möchtet ihr euch ja auch nur an einem simplen Fraktalgenerator erfreuen. Je höher die Fließkommaleistung der CPU, um so schneller ist das putzige Apfelmännchen etc. fertig.
Fraktale werden am Mac auf der altivec-Einheit berechnet. Damit ist der Mac ungefähr den gleichen Faktor wie bei rc5 schneller, als ein x86.
 
Zuletzt bearbeitet von einem Moderator:
ulenz schrieb:
admartinator und otis:
Das alte Problem auf macuser.de:
Unerwünschte Wahrheiten werden ins Lächerliche gezogen, wenn man sie nicht widerlegen kann. Abgesehen davon gibt es ja möglicherweise außer euch beiden "Experten" noch Leute, die den G5 im professionellen Sektor entsprechend einsetzen könnten.
Ulenz - du musst nicht gleich pampig und beleidigend werden, wenn jemand deine Postings in Frage stellt. Ich zweifle nur stark an, dass professienelle Berechnungen à la deinem Urknall, Crashsimulationen, FE-Berechnungen etc. auf einem G5 gemacht werden, zumal es da auch an geeigneter Software fehlen dürfte. Über den Sinn bzw. Unsinn von SETI brauchen wir ja nun wirklich nicht zu streiten.

ad
 
admartinator:
Wenn dich Themen wie Hardware-Benchmarks, SMP (= symmetric multiprocessing) oder Multithreading für PowerMac G5 nicht interessieren, ist das dein gutes Recht.
Aber dann wäre es besser, wenn du meinen Thread hier nicht liest oder zumindest nicht zumüllst.

.ut:
Die TOP-500-Liste kenne ich natürlich. Allerdings bin ich mir hier in zwei Dingen nicht sicher:
IBM baut sehr leistungsfähige PowerPC-Prozessoren im Serverbereich und bei eigenen Unix-workstations. Nur sind das nicht dieselben wie bei den G5 von Apple.Soweit ich weiß, wurden für die PowerMacs abgespeckte Versionen einer Server-CPU verwendet.

Bei der TOP-500 ist das Problem,daß die CPU-Entwicklung sehr schnell voranschreitet und Gr0ßrechner mit ein paar hundert oder tausend Prozessoren mal nicht eben auf die Schnelle aufgerüstet werden können. Der schnellste Opteron oder G5 auf dem Markt ist also noch nicht unbedingt in so ein Riesenbaby eingebaut.
 
Zuletzt bearbeitet:
ulenz schrieb:
admartinator:
Wenn dich Themen wie Hardware-Benchmarks, SMP (= symmetric multiprocessing) oder Multithreading für PowerMac G5 nicht interessieren, ist das dein gutes Recht.
Aber dann wäre es besser, wenn du ihn nicht liest oder zumindest nicht zumüllst.
Gibt's hier heute Preise für Arroganz und Überheblichkeit zu gewinnen? Oder wieso legst du dich so in's Zeug? Das ist Heise-Niveau.
 
Schuld sind immer nur die anderen, wie du wohl selbst am besten weisst. Folglich back to topic !

Um die Leistung von Systemen fuer numerische Anwendungen zu vergleichen ist der LINPACK Benchmark ganz gut geeignet. Er misst die Rechenleistung fuer eine typische Anwendung, ist gut dokumentiert und im Report werden Ergebnisse fuer eine grosse Zahl von Systemen genannt - von Sun 2/50 bis Earth Simulator. (Er dient u.a. auch als Grundlage fuer die Top 500 Liste)

http://www.netlib.org/benchmark/performance.ps

Ein Single-G4 ist auch dabei. Die aktuelle G5-Reihe leider noch nicht. Trotzdem eine interessante Liste.
;)
 
Zuletzt bearbeitet:
ulenz schrieb:
Die TOP-500-Liste kenne ich natürlich. Allerdings bin ich mir hier in zwei Dingen nicht sicher:
IBM baut sehr leistungsfähige PowerPC-Prozessoren im Serverbereich und bei eigenen Unix-workstations. Nur sind das nicht dieselben wie bei den G5 von Apple.Soweit ich weiß, wurden für die PowerMacs abgespeckte Versionen einer Server-CPU verwendet.
In er top-500-Liste findet sich auf Platz 3 ein Cluster aus 1100 ganz normalen Apple PowerMac G5 Dual 2,0 GHz. (In der aktuellen Liste ist er nicht gelistet, weil zum Zeitpunkt des Erstellens der aktuellen Liste gerade die Desktop-G5 durch XServe G5 ausgetauscht wurden, wegen des geringeren Platzbedarfs. In der vorherigen Liste ist er aber drin: http://top500.org/dlist/2003/11/ ) Interessant ist übrigens auch der Preois, mit ca. 5Mio US$ hat er einen Bruchteil dessen gekostet, was ein gleichwertiges x86-System gekostet hätte. Das Ding läuft übrigens mit Mac OS X.

Die IBM iSeries, die sich in der top-500-Liste tummeln, verwenden tatsächlich einen anderen Prozessor. Der Power3, Power4 und Power5 unterscheiden sich von G5 insofern, dass hier mehrere Prozessorkerne auf einem Die sitzen und es keine altivec-Einheit gibt. Es gibt aber auch ein oder zwei iSeries/RS6000 in der Liste, die noch mit dem guten alten 604 arbeiten, welcher in den ersten PCI-PowerMacs verbaut war.
Eine Regel gilt aber in jedem Falle: Um die gleiche Leistung mit einem x86 zu errreichen braucht man die doppelte Zahl aus Prozessoren X Taktfrequenz, wie mit einem beliebigen PowerPC (oder MIPS oder Alpha).
 
Zuletzt bearbeitet von einem Moderator:
Glaubt man diesem Bericht, dann steht der Big Mac sogar auf Platz 1 der Liste ;)
 
Zurück
Oben Unten