PPC vs Intel

Ich hab damals ein Sanduhr Programm in Basic geschrieben. Das gleiche Programm in Omikron.Basic auf dem PowerBook G4 Titanium 400 MHz lief kompiliert 3 x so schnell wie auf dem PC mit Athlon XP 1600+ in QBasic kompiliert.
 
Ich hab damals ein Sanduhr Programm in Basic geschrieben. Das gleiche Programm in Omikron.Basic auf dem PowerBook G4 Titanium 400 MHz lief kompiliert 3 x so schnell wie auf dem PC mit Athlon XP 1600+ in QBasic kompiliert.

Und wie schnell lief es auf dem PowerBook G5? Oh, es gab gar kein PowerBook G5? Warum das denn nicht .... ?

Alex
 
Weil kein mobiler G5 gebracht werden konnte, darum.
 
Weil kein mobiler G5 gebracht werden konnte, darum.

Genau. Damit sollte die Diskussion ja beendet sein.

Bei Apple war schon damals der Anteil von mobilen Geräten ca. 50%. Apple konnte es sich nicht leisten, in diesem Sektor zurückzufallen.

IBM hat sich beharrlich geweigert, eine mobile Version des G5 zu entwickeln (bzw. Apple und IBM konnten sich über die Kosten nicht einigen). Da hat dann Steve in der ihm eigenen Art gesagt: "OK, dann eben Intel"

Auch ich bin ein PPC/68k Nostalgiker, aber es ist genau das: Nostalgie. Dem PPC heute hinterherzutragen halte ich für Unfug.

Alex
 
Ich finde es aber doch etwas schade, daß man nicht mehr Mut zur Technik beweist. Apple u. Atari haben damals der CPU den Digitalen Signalprozessor an die Seite gestellt, um dem Rechner mehr Leistung zu geben. Heute ist ein Mac immer noch sehr schick, ruht sich aber auf den Lorbeeren von einst aus. Macs haben sich früher gerade durch ihre Leistung von den Bastle PCs für zu Hause abgehoben und waren im Grafik- u. Designbereich nicht wegzudenken. Heute ist ein Mac mehr ein schicker PC mit (zum Glück) noch eigenständigen OS.
 
Wenn ich mir die Kühlkörper meines G5s anschaue und mir dann das das Powerbook G5 vorstelle....Das Akkuproblem hätte ja mit einem 24Volt Bleiblock aus der LKW-Technik gelöst werden können.
Also mit Akku hätte das Powerbook dann etwa 64 kilo gewogen. Und das Aludesign des Powermac hätte man beibehalten können. Die Griffe sind da ja schon dran...
;-))).
 
Nochmal: Was hättest Du denn in Apple's Situation getan? Mit wehenden PPC Fahnen untergehen?

Alex
 
IBM hat sich beharrlich geweigert, eine mobile Version des G5 zu entwickeln (bzw. Apple und IBM konnten sich über die Kosten nicht einigen). Da hat dann Steve in der ihm eigenen Art gesagt: "OK, dann eben Intel"

...IBM hat sich nicht geweigert, es ist schlichtweg nicht möglich aus dem G5, der ja auf dem Power4+ von IBM basiert einen mobilen Prozessor zu entwickeln. Du kannst auch aus keinem LKW Motorblock einen Motor für eine Motorrad entwickeln. Die Power-CPUs von IBM sind Rechenmonster, die überwiegend für den Servereinsatz gedacht sind.

...zudem machte nicht gerade viel Sinn einen PPC von 2004 mit intel-cpus aus den letzten Jahren zu messen. Wenn dann sollte man schon sowas wie nen Power6 mit den Xeons von Intel vergleichen, die spielen ungefähr in der selben Sportart und der selben Liga.
 
Apple war ein sehr unangenehmer Kunde fuer die Zulieferer der PPC (Motorola und IBM) da Apple der einzige nennenswerte Kunde im Computerbereich war der sich auch noch dummerweise auf ein MHz Wettrennen mit Intel und AMD eingelasssen hatte. Die Anforderungen der Automobilindustrie und der Mobilfunk-Netzwerkausruester - die anderen nennenswerten Kunden fuer das Produkt - waren aber ganz andere als immer hoehere MHz Werte :)
 
weil es Moore's Law gibt, vielleicht :)

"Real verdoppelt sich die Leistung neuer Computerchips im Mittel etwa alle 20 Monate"
 
Ich finde es aber doch etwas schade, daß man nicht mehr Mut zur Technik beweist.

Damals ging das auch noch. Jetzt ist die Entwicklung so kostspielig geworden, da du Millionen von Transistoren in den kleinen Strukturen unterbringen musst um die Performance zu bringen die Intel vorgibt. Um die Millarden für Entwicklung einzuspielen musst du eben dementsprechend auch die Dinger absetzen können.

Guck dir Sun/AMD an. Die machen mehr Verlust als Gewinn im Schnitt. Bei Grafikkarten siehts auch nicht besser aus, ..

Mal gucken was aus China kommt. Die bauen ja einen Prozessor: http://en.wikipedia.org/wiki/Loongson
Ist sogar RISC, aber denke mal noch meilenweit von der Performance von heutigen Intel CPUs entfernt, ..
 
Apple hat doch bereits selbst verglichen:
http://web.archive.org/web/20011116005756/http://www.apple.com/powermac/specs.html

Zitat:
The new Power Mac G4 does even better against the 1.7GHz Pentium 4. Quite simply the fastest personal computer ever built to run graphics applications, this Power Mac G4 rips through tasks like Gaussian blurs, lighting effects, rotations and color conversions. In tests involving 9 Photoshop actions, the new 733MHz system is 33% faster, the 867MHz system is 58% faster and the dual 800MHz Power Mac G4 creams the 1.7GHz Pentium 4 by a blistering 83%.
 
Mal abgesehen von der Leistung.....

Wenn ich mich an eines erinnern kann und was ich auch immer noch vermisse ist die unglaubliche Zuverlässigkeit und Standfestigkeit meines ersten PowerBook G4 mit satten 400 MHz, 512 MB RAM und einer gigantischen 20 GB Festplatte.

Hauptsächlich habe ich es zur Bildbearbeitung für RAW genutzt. Da konnte ich weiß der Teufel wie viele Programme laufen lassen, daneben brennen und auch noch einen externen Monitor anhängen. Irgend wann wurde er immer langsamer, ein paar Programme ausgeschalten, und weiter ging es.
Der einzige Defekt in 8 Jahren war der LAN Anschluß, sonst nichts.
Egal was ich drangehängt habe, installiert habe, gefordert habe, es hat funktioniert.

Er lief und lief und lief und läuft heute noch ;)
 
Was ist an einem Vergleich Desktop G5 von 2004 gegen Intel mobile von 2006 sinnlos?

....natürlich kann man einen Mercedes Sprinter mit einer BMW G650 vergleichen. Beide sind etwa 170 km/h schnell, aber ob der Vergleich Sinn macht ist die eigentliche Frage.
 
Das ist unmöglich. Mein PB G4 mit 1,5 GHz fängt ab 720p zu ruckeln an...

Komisch, dass die auch auf einem Core 2 Duo MB mit Intel GMA laufen.
Das hat weder Avivo- noch PureHD Decoder...

Die Implementierung vor der Flash Player 10 Version war auch im Intel Code grottig (ist sie immer noch, aber jetzt zumindest mit Hardware Decodierung).
Und auch mit dem FP 9 lief 1080p auf den Core 2 Duos...

....solche Grafikanwendung sagen nun nicht viel über die Leistung von CPUs aus, denn die Frage ist immer, wie und wo wird die Grafik in der Hardware umgesetzt und welche Technik verwendet das OS dazu.

...wenn ich sehe, das ein 1080p-video absolut einwandfrei auf einem iPad läuft, dann wird klar, das dazu durchaus ein 1 GHz RISC-Prozessor ausreicht und plötzlich das kann, was 2005 ein 1,5 GHz RISC-Prozessor (G4, 1,5 GHz) nicht konnte.
 
weil es Moore's Law gibt, vielleicht :)

"Real verdoppelt sich die Leistung neuer Computerchips im Mittel etwa alle 20 Monate"

Sehr schön, aber leider nicht richtig^^

Es sagt aus, dass sich die Komplexität integrierter Schaltkreise mit minimalen Komponentenkosten regelmäßig verdoppelt. Von Leistung war nie die Rede. Das wurde mit der Zeit dazu gedichtet und hält sich standhaft, so wie die Aussage, dass Spinat viel Eisen enthält.
 
es wurde nicht hinzugedichtet sondern ist eine Aussage von David House, einem der fuehrenden Entwickler bei Intel. Darum ist ja auch von "real" und "20 Monaten" und nicht wie bei Moore - der ja nur die Transistordichte betrachtet- von 12 bzw 18 Monaten bis zu Verdopplung der Anzahl der Transistoren die Rede.

Transistor count versus computing performance

The exponential processor transistor growth predicted by Moore does not always translate into exponentially greater practical CPU performance. Let us consider the case of a single-threaded system. According to Moore's law, transistor dimensions are scaled by 30% (0.7x) every technology generation, thus reducing their area by 50%. This reduces the delay (0.7x) and therefore increases operating frequency by about 40% (1.4x). Finally, to keep electric field constant, voltage is reduced by 30%, reducing energy by 65% and power (at 1.4x frequency) by 50%, since active power = CV2f. Therefore, in every technology generation transistor density doubles, circuit becomes 40% faster, while power consumption (with twice the number of transistors) stays the same.[65]
 
es wurde nicht hinzugedichtet sondern ist eine Aussage von David House, einem der fuehrenden Entwickler bei Intel. Darum ist ja auch von "real" und "20 Monaten" und nicht wie bei Moore - der ja nur die Transistordichte betrachtet- von 12 bzw 18 Monaten bis zu Verdopplung der Anzahl der Transistoren die Rede.

Trotzdem ist es kein Bestandteil des Mooreschen Gesetzes sondern baut darauf auf.
 
Zurück
Oben Unten