ms510 schrieb:also wenn dann 1xX2 gegen 2xG5
am besten wäre 2xX2 gegen 2xG5 Dualcore testen, wenn er denn mal kommt
Stimmt. Nemma 2x FX57 oder meinetwegen 2xAthlon 64 4000+
Folgen Sie dem Video unten, um zu sehen, wie Sie unsere Website als Icon auf Ihrem Homescreen erstellen.
Anmerkung: This feature may not be available in some browsers.
ms510 schrieb:also wenn dann 1xX2 gegen 2xG5
am besten wäre 2xX2 gegen 2xG5 Dualcore testen, wenn er denn mal kommt
Tatsächlich liegt die Rechenleistung des 2x3,5GHz-Pentium-D in den meisten gängigen Benchmarks eher unter der des 3,8GHz-P4.Loki Mephisto schrieb:Immerhin aber mit 2 Kernen. Sie haben zwar etwas anderes angekündigt (vor 2 Jahren), die Rechenleistung eines 2x3,5 GHz Prozessors sollte jedoch nicht wesentlich unter einem 5GHz Single liegen. Über Vor- und Nachteile von DualCores bei Muliti/Singlethreaded-Anwendungen diskutieren wir besser an anderer Stelle.
Xeons mit Dualcore sind für Anfang 2006 angekündigt. Nur mit Xeons lassen sich mit dem PowerMac G5 vergleichbare Systeme aufbauen.Von 3 GHz auf 2x3,6=Wieviel?
Selbst das ist keine geringere Steigerung, als bei Intel beim P4. (25%)Vor 2 Jahren war der G4 auf 1,33, Mai 2004 kam 1,50, Januar 2005 1,67.
1,7 auf 2,26 (falls der schon erhältlich und nicht nur der Preis - von 637$! - festgelegt sein sollte), macht 32%, also immer noch weniger, als IBM im gleichen Zeitraum.Der Centrino ging in dieser Zeit (grob geschätzt) von 1,6 auf 2,26.
Yep, die ist erfahrungsgemäß geringer.Das ist so nicht korrekt. Das trifft vielleicht für die reine Steigerung der Taktfrequenzen zu. Nicht jedoch für die Performance.
Aber nein, tatsächlich wurde der sogar ausgebaut. Rechne einfach noch mal nach.Ich finde nichts Absurdes dabei. Auch, wenn ich mich wiederhole: Als der G5 vorgestellt wurde, hatte Apple tatsächlich einen Vorsprung. Der ist inzwischen dahin.
Diese Annahme beruht auf der Vermutung, dass Intel gegenüber dem G5 zugelegt hätte. Das ist aber tatsächlich nicht der Fall.Ich möchte nicht sehen, wie 2 Athlon X2 4800 im Vergleich mit einem Power Mac 2x2,7 abschneiden. Selbst die nicht ganz so tollen Intels sollten da gut mit im Rennen sein.
Halten dafür aber erstaunlich gut mitIch mag Intel nicht. Sie haben durch den NetBurst-Flop an Fahrt verloren, so dass AMD vorbeiziehen konnte. Aber: sie scheinen hoch ambitioniert und investieren unglaublich viel Kohle, diese Scharte wieder auszubessern.
IBM schert sich nix um die G5 und steigt stattdessen lieber mit Microsoft ins Bett, um den Cell zu produzieren (sie können´s scheinbar, wenn sie nur wollen). Freescale hat sich schon länger auf andere Geschäftsbereiche verlegt, der G4 läuft unter ferner liefen. Offenbar war man nicht willens und auch finanziell nicht in der Lage, das Wettrüsten der Prozessorhersteller mitzumachen
Bitte schreibt doch dazu, dass es sich um eine WMV Datei handelt!Fauhler schrieb:
cilly schrieb:Man sollte den Thread in ._ut vs Loki Mephisto umbenennen...
*grins*
Jack00 schrieb:Die haben schon in einem anderen Fred diskotiert. Bis die sich einig sind werden nich einige freds befült werden
._ut schrieb:Der Grund für Intel (ob nun für den Switch überhaupt oder gegenüber AMD) ist nicht die Roadmap, auch wenn Steve Jobs das so in der Keynote behauptet hat. Denn zum einen gibt die Roadmap gar nicht so viel her, noch ist aufgrund der Erfahrungen die Wahrscheinlichkeit groß, dass sie überhaupt eingehalten wird.
._ut schrieb:Aber nein, tatsächlich wurde der sogar ausgebaut. Rechne einfach noch mal nach.Diese Annahme beruht auf der Vermutung, dass Intel gegenüber dem G5 zugelegt hätte. Das ist aber tatsächlich nicht der Fall. Halten dafür aber erstaunlich gut mit
._ut schrieb:Außerdem hat IBM verlauten lassen, dass sie gut und gerne die Prozessoren für die komplette Apple-Produktpaltte liefern könnten.
In 2003 ist der G5 überhaupt erst erschienen. Von einem Vorsprung war, wenn man diesen Quellen glauben kann, also nie die Rede. Allerdings gibt es damals, wie heute auch Benchmarks, die das Gegenteil sagen.d4ve schrieb:Ich kann mich leider nicht an ein Benchmark in der letzten Zeit erinnern, in dem die G5er überlegen waren. Tests in der c't 20/2003 zeigen das. Die Opterons und Xeons waren flotter, teils sogar Single-CPU-Systeme gegen den Dual-PowerMac. Man kann die Systeme zwar eigentlich kaum vergleichen, da du das aber hier so offensiv machst greife ich auch mal zu dem Mittel. Von einem Vorsprung kann schon längst nicht mehr die Rede sein.
Ja, das hat was mit dem 90nm-Fertigung zu tun, die, wie ich weiter oben schon erwähnte, entgegen der Erfahrungen, die bei vorherignen Verkleinerungen gemacht wurden, die Leistungsaufnahme nicht reduziert, aber natürlich trotzdem die Fläche des Die verkleinert. Damit wird es schwieriger, die Wärme abzuführen.Das Problem muss IBM allerdings für die XBox dringender in Griff bekommen müssen, als für einen PowerMac.Die Wärmeentwicklung bleibt ebenfalls ein Problem, vor allem beim iMac. Der stärkste PowerMac muss sogar Wassergekühlt werden. Apple hat daraus schlauerweise gleich ein Feature gemacht .
Das weißt Du?Fakt ist das der G5 zukünftig nicht mehr konkurenzfähig ist, weil IBM kein großes Interesse an der Weiterentwicklung hat.
Der G4 ist absolut konkurrenzfähig. Besonders, was Leistung pro Watt betrifft. Da müssen die Pentium-M-Nachfolger erst mal hinkommen. (Die aktuellen Pentium M verbrauchen bis 27W TDP, der aktuelle G4 liegt bei 15W max.)Der G4 ist ohnehin nicht mehr konkurenzfähig, da würde auch Dual-Core nicht mehr viel retten, hier muss einfach eine neue Architektur her, deren Entwicklung aber leider Geld kostet, das die Stückzahlen von Apple wahrscheinlich nicht wett macht .
Der Switch hat ganz sicher ganz andere Gründe. Denn die Roadmaps von Intel sind weder besonders toll, noch glaubhaft.Der Switch kommt nicht unbegründet und Apple würde das Risiko nicht eingehen, wenn sie nicht wüssten dass die IBM-Roadmaps den Apple-Systemen keine Zukunft mehr bieten würden.
AMD ist absolut keine Alternative. AMD ist viel zu klein, um Apple zuverlässig beliefern zu können (Apple verkauft 4Mio Rechner pro Jahr, Tendenz steigend). (Um auch in diesem Post mal ontopic zu sein.) Außerdem, wenn der Grund für den Switch gewesen wäre, die besten Prozessoren zu bekommen, dann hätte Apple bei IBM und Freescale bleiben müssen.AMD wäre durchaus eine Alternative, vor allem mit den Opteron-CPUs.
Und degradieren sich vom Computer-Entwickler und -Hersteller zum Kistenschieber á la Dell.Aber bei Intel bekommen sie CPU + Northbridge/Southbridge u.ä. aus einer Hand, damit haben sie einen Partner für alles.
Wo denn? Bis auf die Strukturverbreiterung 970FX und Dual-Core 970MP sehe ich keine Verbesserungen die ich im X86-Bereich nicht auch gesehen hätte.._ut schrieb:In 2003 ist der G5 überhaupt erst erschienen. Von einem Vorsprung war, wenn man diesen Quellen glauben kann, also nie die Rede. Allerdings gibt es damals, wie heute auch Benchmarks, die das Gegenteil sagen.
Nur, zu behaupten, der Vorsprung wäre mal da gewesen und jetzt nicht mehr vorhanden, entbehrt jeder Grundlage, denn in den letzten zwei Jahren hat sich der G5 besser entwickelt, als der Xeon.
Soviel zum Thema G5 hat sich besser entwickelt...._ut schrieb:Ja, das hat was mit dem 90nm-Fertigung zu tun, die, wie ich weiter oben schon erwähnte, entgegen der Erfahrungen, die bei vorherignen Verkleinerungen gemacht wurden, die Leistungsaufnahme nicht reduziert, aber natürlich trotzdem die Fläche des Die verkleinert. Damit wird es schwieriger, die Wärme abzuführen.
Die X-Box CPU BASIERT auf der Power-Architektur. Soweit ich weiß werden die Cores abgespeckt, dafür werden dann gleich 3 eingesetzt.._ut schrieb:Das Problem muss IBM allerdings für die XBox dringender in Griff bekommen müssen, als für einen PowerMac.
Apple war (nicht ganz uneigennützig) der Initiator des PowerPC-Konsortiums. Das sie nun den PowerPC aufgeben zeigt eigentlich sehr deutlich, dass Apple keine Zukunft mehr in der Architektur sieht. Uneinigkeit schien es ja schon beim G4 zu geben, bei der AltiVec-Einheit und deren Integration in den G4 waren sich Motorola und IBM nicht einig, Motorola hat sich durchgesetzt, IBM hat die Mitentwicklung abgebrochen. Aus dem Grund ist die AltiVec-Einheit im von IBM entwickelten G5 ja auch langsamer.._ut schrieb:Das weißt Du?
Ich halte das für eine Legende, es gibt keine Anhaltspunkte dafür, dass das so stimmt.
Der Architekturwechsel zu Wanderpool sollte eigentlich Signal genug zum Umschwung von langen Pipelines zu mehr Effizienz sein. Die Taktsteigerung in den letzten 2 Jahren entspricht übrigens ungefähr der des G5 (ca. 700MHz und mehr) . Der Stromverbrauch ist tatsächlich hoch, aber der G5 ist leider auch ein Stromschlucker. Was Dual-Core betrifft, da hat sich Intel tatsächlich einen Schnellschuss geleistet, sie mussten wohl rasch auf die Dual-Core-Ankündigung von AMD reagieren.._ut schrieb:Wenn man die Entwicklung der letzten Jahre betrachtet könnte man sogar eher zu dem Schluss kommen, dass Intel kein Interesse an der Weiterentwicklung von Desktop-Prozessoren hat (kaum Taktsteigerung und keine Verbesserungen beim Stromverbrauch beim P4, eine bestenfalls halbherzig zu nennende Implementation des Doppelkerns beim Pentium D).
._ut schrieb:Das das absurd ist, sieht natürlich jeder, denn Intel lebt nun mal hauptsächlich von Desktop-Prozessoren - im Gegensatz zu IBM oder Freescale.
Woher weißt du dass sie garantiert nicht eingehalten werden?._ut schrieb:Daher vertraut hier jeder auf irgendwelche Ankündigungen (bzw. Roadmaps, die garantiert nicht eingehalten werden)
Das er noch konkurrenzfähig ist, kann ich nicht so recht glauben, schließlich ist die G4-Architektur schon 6 Jahre alt._ut schrieb:- auf die er bei IBM oder Freescale natürlich nicht vertraut.Der G4 ist absolut konkurrenzfähig. Besonders, was Leistung pro Watt betrifft. Da müssen die Pentium-M-Nachfolger erst mal hinkommen. (Die aktuellen Pentium M verbrauchen bis 27W TDP, der aktuelle G4 liegt bei 15W max.)
Was ist denn daran nicht glaubhaft? Die letzten Roadmaps von Intel und AMD haben sich eigentlich immer einigermaßen erfüllt (wenn man das Marketing nicht blind schluckt). Soweit ich mich erinnere war IBM in letzter Zeit nicht sehr glaubhaft. Wo bleibt z.B. der 3Ghz-G5?._ut schrieb:Der Switch hat ganz sicher ganz andere Gründe. Denn die Roadmaps von Intel sind weder besonders toll, noch glaubhaft.
AMD traue ich die Belieferung schon zu, so klein sind sie ja nun auch nicht. Wenn Dell sagt dass AMD die Belieferung nicht schafft glaube ich das schon eher. Egal, Intel kann wie oben erwähnt alles aus einer Hand liefern, das wird sicherlich ausschlaggebend sein.._ut schrieb:AMD ist absolut keine Alternative. AMD ist viel zu klein, um Apple zuverlässig beliefern zu können (Apple verkauft 4Mio Rechner pro Jahr, Tendenz steigend).
Hätten die Firmen ihre Produktreihen richtig gepflegt wäre Apples Schritt wahrscheinlich nicht nötig gewesen. Irgendwann sind auch die besten CPUs veraltet...._ut schrieb:Außerdem, wenn der Grund für den Switch gewesen wäre, die besten Prozessoren zu bekommen, dann hätte Apple bei IBM und Freescale bleiben müssen.
Nicht wenn Apple sich und seinen Produkten treu bleibt. MacOS mit der intuitiven Bedienung und das geniale Design machen Apple aus. Schau dir mal die Dell-Dosen an, die können in sachen Design niemals mit Apple konkurieren.._ut schrieb:Und degradieren sich vom Computer-Entwickler und -Hersteller zum Kistenschieber á la Dell.
Mit eingebauter Northbridge? Oder nur mit eingebautem Speichercontroller? Gibt es Roadmaps? Oder ist das eine Vermutung?._ut schrieb:Bei Freescale würden sie sogar eine CPU mit eingebauter Northbridge bekommen, mit einem oder zwei Prozessorkernen.
ich habe es auf einem Dell Inspiron 8200 mit P4-M CPU (SSE2, nicht SSE3) laufen. USB und WLAN funktionieren leider nicht, Coregraphics und Quartz Extreme auch nicht, der Rest geht. Die Grafik geht auf voller Auflösung (1600x1200 bei mir) und etwas hakelig, aber auch nicht hakeliger, als mein PB, wenn es was zu tun hat. Beeindruckt war ich, dass z.B. Word, das ja per Rosetta emuliert wird, genauso schnell aufpoppt und arbeitet, wie auf meinem PB mit 1,5GHz.
scsimodo schrieb:(wobei ich allerdings nichts über den "Tischlampen-Mac" kommen lasse, der war ja herzallerliebst und ist IMHO bisher ungeschlagen).