._ut schrieb:
In 2003 ist der G5 überhaupt erst erschienen. Von einem Vorsprung war, wenn man diesen Quellen glauben kann, also nie die Rede. Allerdings gibt es damals, wie heute auch Benchmarks, die das Gegenteil sagen.
Nur, zu behaupten, der Vorsprung wäre mal da gewesen und jetzt nicht mehr vorhanden, entbehrt jeder Grundlage, denn in den letzten zwei Jahren hat sich der G5 besser entwickelt, als der Xeon.
Wo denn? Bis auf die Strukturverbreiterung 970FX und Dual-Core 970MP sehe ich keine Verbesserungen die ich im X86-Bereich nicht auch gesehen hätte.
._ut schrieb:
Ja, das hat was mit dem 90nm-Fertigung zu tun, die, wie ich weiter oben schon erwähnte, entgegen der Erfahrungen, die bei vorherignen Verkleinerungen gemacht wurden, die Leistungsaufnahme nicht reduziert, aber natürlich trotzdem die Fläche des Die verkleinert. Damit wird es schwieriger, die Wärme abzuführen.
Soviel zum Thema G5 hat sich besser entwickelt...
._ut schrieb:
Das Problem muss IBM allerdings für die XBox dringender in Griff bekommen müssen, als für einen PowerMac.
Die X-Box CPU BASIERT auf der Power-Architektur. Soweit ich weiß werden die Cores abgespeckt, dafür werden dann gleich 3 eingesetzt.
._ut schrieb:
Das weißt Du?
Ich halte das für eine Legende, es gibt keine Anhaltspunkte dafür, dass das so stimmt.
Apple war (nicht ganz uneigennützig) der Initiator des PowerPC-Konsortiums. Das sie nun den PowerPC aufgeben zeigt eigentlich sehr deutlich, dass Apple keine Zukunft mehr in der Architektur sieht. Uneinigkeit schien es ja schon beim G4 zu geben, bei der AltiVec-Einheit und deren Integration in den G4 waren sich Motorola und IBM nicht einig, Motorola hat sich durchgesetzt, IBM hat die Mitentwicklung abgebrochen. Aus dem Grund ist die AltiVec-Einheit im von IBM entwickelten G5 ja auch langsamer.
._ut schrieb:
Wenn man die Entwicklung der letzten Jahre betrachtet könnte man sogar eher zu dem Schluss kommen, dass Intel kein Interesse an der Weiterentwicklung von Desktop-Prozessoren hat (kaum Taktsteigerung und keine Verbesserungen beim Stromverbrauch beim P4, eine bestenfalls halbherzig zu nennende Implementation des Doppelkerns beim Pentium D).
Der Architekturwechsel zu Wanderpool sollte eigentlich Signal genug zum Umschwung von langen Pipelines zu mehr Effizienz sein. Die Taktsteigerung in den letzten 2 Jahren entspricht übrigens ungefähr der des G5 (ca. 700MHz und mehr)
. Der Stromverbrauch ist tatsächlich hoch, aber der G5 ist leider auch ein Stromschlucker. Was Dual-Core betrifft, da hat sich Intel tatsächlich einen Schnellschuss geleistet, sie mussten wohl rasch auf die Dual-Core-Ankündigung von AMD reagieren.
._ut schrieb:
Das das absurd ist, sieht natürlich jeder, denn Intel lebt nun mal hauptsächlich von Desktop-Prozessoren - im Gegensatz zu IBM oder Freescale.
Eben! IBM und Freescale müssen sich nicht mit der Weiterentwicklung der PowerPCs für Apple beschäftigen, da sie auch in anderen Sektoren präsent sind. Übrigens lebt Intel nicht nur von Desktop-CPUs. Intel ist im Server-Markt immer noch dominant, auch wenn hier AMD in letzter Zeit kräftig zulegt. Tatsache ist, dass es sich Intel nicht leisten kann die Weiterentwicklung ihrer CPUs versacken zu lassen, denn sonst sind sie nicht mehr konkurenzfähig. IBM musste sich darum nicht in dem Maß kümmern.
._ut schrieb:
Daher vertraut hier jeder auf irgendwelche Ankündigungen (bzw. Roadmaps, die garantiert nicht eingehalten werden)
Woher weißt du dass sie garantiert nicht eingehalten werden?
._ut schrieb:
- auf die er bei IBM oder Freescale natürlich nicht vertraut.Der G4 ist absolut konkurrenzfähig. Besonders, was Leistung pro Watt betrifft. Da müssen die Pentium-M-Nachfolger erst mal hinkommen. (Die aktuellen Pentium M verbrauchen bis 27W TDP, der aktuelle G4 liegt bei 15W max.)
Das er noch konkurrenzfähig ist, kann ich nicht so recht glauben, schließlich ist die G4-Architektur schon 6 Jahre alt
Immer dran denken: man kann den Kunden grade in der Computerbranche keine alte Architektur vorsetzen. Der G5 ist schon 2 Jahre verfügbar und es gibt immer noch keine Mobile-CPU. Das mag Apple-Liebhaber nicht stören, so manchen Switcher aber schon.
._ut schrieb:
Der Switch hat ganz sicher ganz andere Gründe. Denn die Roadmaps von Intel sind weder besonders toll, noch glaubhaft.
Was ist denn daran nicht glaubhaft? Die letzten Roadmaps von Intel und AMD haben sich eigentlich immer einigermaßen erfüllt (wenn man das Marketing nicht blind schluckt). Soweit ich mich erinnere war IBM in letzter Zeit nicht sehr glaubhaft. Wo bleibt z.B. der 3Ghz-G5?
._ut schrieb:
AMD ist absolut keine Alternative. AMD ist viel zu klein, um Apple zuverlässig beliefern zu können (Apple verkauft 4Mio Rechner pro Jahr, Tendenz steigend).
AMD traue ich die Belieferung schon zu, so klein sind sie ja nun auch nicht. Wenn Dell sagt dass AMD die Belieferung nicht schafft glaube ich das schon eher. Egal, Intel kann wie oben erwähnt alles aus einer Hand liefern, das wird sicherlich ausschlaggebend sein.
._ut schrieb:
Außerdem, wenn der Grund für den Switch gewesen wäre, die besten Prozessoren zu bekommen, dann hätte Apple bei IBM und Freescale bleiben müssen.
Hätten die Firmen ihre Produktreihen richtig gepflegt wäre Apples Schritt wahrscheinlich nicht nötig gewesen. Irgendwann sind auch die besten CPUs veraltet...
._ut schrieb:
Und degradieren sich vom Computer-Entwickler und -Hersteller zum Kistenschieber á la Dell.
Nicht wenn Apple sich und seinen Produkten treu bleibt. MacOS mit der intuitiven Bedienung und das geniale Design machen Apple aus. Schau dir mal die Dell-Dosen an, die können in sachen Design niemals mit Apple konkurieren.
._ut schrieb:
Bei Freescale würden sie sogar eine CPU mit eingebauter Northbridge bekommen, mit einem oder zwei Prozessorkernen.
Mit eingebauter Northbridge? Oder nur mit eingebautem Speichercontroller? Gibt es Roadmaps? Oder ist das eine Vermutung?