Tiger auf G5s schneller?

zeitlos

unregistriert
Thread Starter
Dabei seit
05.02.2005
Beiträge
3.922
Reaktionspunkte
619
Hab gerade bei macgadget.de gelesen, dass das Mac OS X 10.4 nun ein "wirkliches" 64 Bit Betriebssystem sein soll.
Was bringt dass denn für Vorteile im Vergleich zu Panther mit sich?
Und profitieren dann 64 Bit Maschinen wie z.B. G5 iMac, G5 PowerMac von dieser 64 Bit Technologie? Wenn ja, inwiefern?

Bin in solchen Dingen absoluter Laie, kann mir also keinen Reim drauf machen. Interessieren würde es mich dann doch, weil ich ja hier u.a. einen iMac G5 1,8 stehen habe :)
 
M.E. profitieren doch nur 64 Bit Programme von der Architektur oder? Da es demnach noch kaum Programme gibt, sollte es z.Zt. doch keinen Unterschied geben.

Inwiefern sich jedoch das Betriebssystem selbst schneller "anfühlt", würde mich jedoch auch mal interessieren, da ich in den nächsten Tagen entweder ein "Powerbook" oder "iMac 20" kaufen möchte.. (wenn dann endlich der Tiger in den Tank kommt..)
 
ich dachte Tiger wäre noch kein 100%iges 64bit System
 
QuickSilverEX schrieb:
ich dachte Tiger wäre noch kein 100%iges 64bit System
Es muss ja auch auf G3 und G4 Machinen laufen ;)

Bedenkt, dass der G5 sowieso schneller ist als ein G4 oder gar G3. Sogesehen wirkt es auf jeden Fall schneller.
 
Im gegensatz zur intel architektur bringt dir beim ppc 64bit nur eine großere speicheraddressierung, aber keine sonstige Vorteile...
 
Mac Os7.1 war kein 64-Bit-System und es IST bedeutend schneller (wenn es denn auf G5-Macs laufen würde). Die Frage der Geschwindigkeit definiert sich heute nicht vordergründig durch Hardware, auch wenn die Softwerker uns das weißmachen wollen. Das Problem ist schlecht programmierte Software!

Ich hatte mal in einem Testbericht Quark <> Indesign gelesen, in dem Indesign in bestimmten Funktionen um den Faktor sieben langsamer war. Wow, das nimmt man einfach so hin. Um die Quark-Performace zu erhalten, müsste man also einen 15-GHz-G5 haben?! Und da überlegen wir, ob sich ein paar Geschwindigkeits-Prozente in der Hardware bemerkbar machen…

Noch ein Beispiel: Warum ist das Scrollen durch einen Text in einer Textverarbeitung immer noch so lahm, wie vor 20 Jahren? Wir haben mittlerweile die 1000fache Hardware-Rechenleistung. Was kommt davon bei uns an? Nicht so viel, oder?
 
weebee schrieb:
Mac Os7.1 war kein 64-Bit-System und es IST bedeutend schneller (wenn es denn auf G5-Macs laufen würde). Die Frage der Geschwindigkeit definiert sich heute nicht vordergründig durch Hardware, auch wenn die Softwerker uns das weißmachen wollen. Das Problem ist schlecht programmierte Software!

Ich hatte mal in einem Testbericht Quark <> Indesign gelesen, in dem Indesign in bestimmten Funktionen um den Faktor sieben langsamer war. Wow, das nimmt man einfach so hin. Um die Quark-Performace zu erhalten, müsste man also einen 15-GHz-G5 haben?! Und da überlegen wir, ob sich ein paar Geschwindigkeits-Prozente in der Hardware bemerkbar machen…

Noch ein Beispiel: Warum ist das Scrollen durch einen Text in einer Textverarbeitung immer noch so lahm, wie vor 20 Jahren? Wir haben mittlerweile die 1000fache Hardware-Rechenleistung. Was kommt davon bei uns an? Nicht so viel, oder?

Du kannst eine Textdatei von damals schlecht mit einem heutigen mordernen Format vergleichen.
 
Wenn du DIE Textdatei von damals mit einem ähnlichem Programm von
Heute öffnest wirst du etwas von der Gewschwindigkeit mitbekommen.

Hast du aber alle Spielereien aktiviert, die ein OS heute so dabei hat
(das Text Programm natürlich auch) musst du dich nicht wundern...

Mein XP z.B. sieht, in etwa, aus wie NT4.0/2000...
 
Möchte mal sehen, wie Du bei 1000-facher Scrollgeschwindigkeit noch erkennen kannst, wohin Du scrollst.

No.
 
norbi schrieb:
Möchte mal sehen, wie Du bei 1000-facher Scrollgeschwindigkeit noch erkennen kannst, wohin Du scrollst.

No.

Haupsache es läuft flüssig. Wahrscheinlich ein flüssiger grauer Farbverlauf. :D
(schwarz/weiß vorausgesetzt)
 
weebee schrieb:
Mac Os7.1 war kein 64-Bit-System und es IST bedeutend schneller (wenn es denn auf G5-Macs laufen würde). Die Frage der Geschwindigkeit definiert sich heute nicht vordergründig durch Hardware, auch wenn die Softwerker uns das weißmachen wollen. Das Problem ist schlecht programmierte Software!

die software von heute ist nicht besser oder schlechter programmiert.
nahezu paralel zur leistung steigen auch die features und möglichkeiten der software...

ein kommentar über die arbeit bei pixar in bezug auf 3d-filme:

früher haben wir für eine sekunde film einen tag gerendert,
heute haben wir die 1000fache performance und rechnen
immer noch einen tag.
 
als der g5 vorgestellt wurde, hieß es doch, dass die software in frühstens 1-2 jahren angemessen 64bit optimiert sein soll. diese zeit käm ja jetzt langsam. darüber hinaus haben tests damals gezeigt, dass eine damals halbwegs optimierte version von photoshop gegenüber der vorversion eine leistungssteigerung von 50 % brachte. vielleicht wieder nur marketing-geschwätz.
grundsätzlich kann ich mir schon vorstellen, dass sich die performance mit tiger steigern wird. inwiefern auch immer. iphoto '05 läuft auf meinem g5 seit der neuen version rasend schnell, wobei es auf meinem powerbook zum teil etwas langsamer geworden ist.
 
CapFuture schrieb:
Im gegensatz zur intel architektur bringt dir beim ppc 64bit nur eine großere speicheraddressierung, aber keine sonstige Vorteile...

Wieso im gegensatz? da ist es genau das selbe, da bringt nur der fertigungsprozess einen leichten speedbump.
 
weebee schrieb:
Mac Os7.1 war kein 64-Bit-System und es IST bedeutend schneller (wenn es denn auf G5-Macs laufen würde). Die Frage der Geschwindigkeit definiert sich heute nicht vordergründig durch Hardware, auch wenn die Softwerker uns das weißmachen wollen. Das Problem ist schlecht programmierte Software!

Ich hatte mal in einem Testbericht Quark <> Indesign gelesen, in dem Indesign in bestimmten Funktionen um den Faktor sieben langsamer war. Wow, das nimmt man einfach so hin. Um die Quark-Performace zu erhalten, müsste man also einen 15-GHz-G5 haben?! Und da überlegen wir, ob sich ein paar Geschwindigkeits-Prozente in der Hardware bemerkbar machen…

Noch ein Beispiel: Warum ist das Scrollen durch einen Text in einer Textverarbeitung immer noch so lahm, wie vor 20 Jahren? Wir haben mittlerweile die 1000fache Hardware-Rechenleistung. Was kommt davon bei uns an? Nicht so viel, oder?

Also bitte
7.1 hatte niedrigere Anforderungen sah auch so aus, konnte fast noch nix und ist nicht mehr mit heutigen Systemen zu vergleichen, damals brauchte PS 2 Disketten heute 1 DVD.

Indesign ist dafür in anderen Sachen schneller, also bitte

damals hast du durch ein 2 farbenbild gescrollt und heute sind es max. 16,8 mio. mit Bilder die 60 MB haben im vergleich zu den früheren 200 KB


Die frage warum ein Panzer nicht so schnell ist wie ein PKW obwohl er mehr Leistung (PS) hat ist auch jedem klar: Ein Panzer ist 70 mal schwerer aber hat nur 15 mal soviel Leistung (1500 PS)

ES ist eben alles etwas fetter geworden, auch die Daten
 
Zuletzt bearbeitet:
Wenn Mac OS X vollständig 64-Bit "fähig" ist, dann kann es immer noch auf 32-Bit oder 64-Bit kompiliert werden.
Es könnte ja sein, dass Apple anfängt alle binaries in 2 Ausführungen mit auf die CD zu legen.

Über den Sinn und Zweck von 64-Bit Code wurde schon viel diskutiert. Ich persönlich glaube nicht dass 64-Bit einen merklichen Geschwindigkteitszuwachs bringt.

Für Privatnutzer ist das reine PR. Für Server- und sehr RAM-hungrige Anwendungen bringt es halt insofern viel, als dass mehr als 4GB RAM pro Prozess verwendet werden können.
 
Ich bin etwas verwundert, dass ihr den Lauf der Dinge als gegeben hinnehmt und anscheinend meint, es muss zwangsläufig so sein, dass man ständig neue, schnellere Hardware kaufen muss. Warum fragt keiner danach, wo die Rechenleistung bleibt? Wir stellen uns heute einen Dual-G5 mit Kühlkörpern so groß wie für mechanische Leistungsmaschinen unter den Tisch, verbraten 'ne Menge Energie und heizen die Bude auf, nur um in einen Textdokument scrollen zu können? Das kann doch nicht sein, oder? Okay, es gibt sicherlich einige Bereich, wo man die Rechenleistung wirklich braucht und wo man mit modernen Systemen Dinge machen kann, die früher nicht möglich waren. Signalbearbeitung, Bild- oder Filmkomprimierung oder 3D-Animation beispielsweise.

Es gibt aber auch andere Bereiche, wo ich dies nicht akzeptabel finde. Zum Beispiel Textverarbeitung. Auch damals hat man schon Bücher mit hunderten Seiten und tausenden von Grafiken und Fotos gesetzt. Und heute? Pages, Word und wie sie alle heißen, verzweifen schon bei 30 anspruchsvoll gesetzten Seiten. (Sofern diese Textverarbeitungen überhaupt eine »Gestaltung« ermöglichen.)

> Du kannst eine Textdatei von damals schlecht mit einem heutigen mordernen Format vergleichen.

Keine Ahnung was Du sagen willst. Wenn man das Format geändert hat, und die Möglichkeiten sind immer noch beschränkt, aber es werden mehr Ressourcen gebraucht - wo ist da der Sinn? Selbstzweck?

> Hast du aber alle Spielereien aktiviert, die ein OS heute so dabei hat
(das Text Programm natürlich auch) musst du dich nicht wundern...

Exakt das ist das Problem, Spielereien hier und objektorientierte Programmiertechniken dort. Keiner fragt mehr, was der Kunde braucht. Und die Kunden denken, sie brauchen »Spielereien«. Übrigens ist Apple meiner Meinung nach die einzige Firma, die überhaupt noch eine Chance hat den Ausweg daraus zu finden.

>Möchte mal sehen, wie Du bei 1000-facher Scrollgeschwindigkeit noch erkennen kannst, wohin Du scrollst.

Was ist das für ein Argument? Wir reden hier davon, dass wir ständig neue Rechner kaufen müssen, um überhaupt arbeiten zu können. Die Frage ist nicht »1000-fache Geschwindigkeit«, sondern was die Maschinen zu leisten imstande wären, wenn die Rechenleistung nicht so sinnlos verbraten werden würde. Stichworte: stromsparende, kleine, kühle Systeme. Und einfachere, benutzbare Systeme.

> nahezu paralel zur leistung steigen auch die features und möglichkeiten der software..

Teilweise hast Du sicherlich recht. Bei vielen Programmen frage ich mich allerdings wo der Fortschritt bleibt. Beispiel: Was kann Pages besser als Pagemaker? Was haben wir in den 20 Jahren dazugewonnen?

>7.1 hatte niedrigere Anforderungen … 2 Disketten heute 1 DVD

Davon rede ich ja! Wofür der Aufwand?

>Indesign ist dafür in anderen Sachen schneller, also bitte

Bitte was? Ich will hier nicht Quark mit ID vergleichen. Ich will nur klar machen, wie viel Performance-Spielraum in der Softwareentwicklung steckt bzw. vergeudet wird.

> damals hast du … und heute sind …

Vielleicht im Hobbybereich. Wir reden hier von Macs. Mit denen hat man damals A4 4c-Prospekte gemacht und heute auch noch. Klar geht das heute einfacher und ein fettes Bild lässt sich leichter handlen, trotzdem haben wir damals Hi-End-Produkte erstellen können.
 
Ähh, was ich eigentlich sagen wollte: Wir (auch ich) gieren ständig nach ein paar Prozenten mehr Hardware-Rechenleistung oder 64-Bit Unterstützung und akzeptieren auf der anderen Seite mehrfach (!) langsamere Software. Das macht doch keinen Sinn.

Was ist ein Hauptkriterium in Hardware-Testberichten? Die Geschwindigkeit. Und bei Software? Dort geht man vielleicht mal nebenbei auf die Geschwindigkeit ein. (Es sei denn, das Programm ist soo mies, dass es schon negativ auffällt (Dreamweaver MX war so'n Kandidat, oder eben damals Indesign)).

Wenn ich mir mit iView 10000 Bilder ansehen will, ist der Rechner erstmal ein paar Stunden mit dem Katalogisieren beschäftigt. Wenn ich das mit ViewIt mache, kann ich sofort (!) loslegen. Wie schnell soll ein Rechner sein, um die verlorene iView-Performace wieder reinzuholen? Und warum soll er das überhaupt, nur weil die Hersteller nicht optimiert Programmieren? Jedenfalls wäre in diesem Beispiel eine 20%ige Hardware-Performacesteigerung aber sowas von egal, dass man sich darüber nicht unterhalten muss.

Nee, dann lieber schnelle Software und dafür kleine Rechner ohne Lüfter, die zudem noch günstig sind und auch mit guten Gewissen durchlaufen können, weil sie kaum noch Strom verbrauchen.
 
Zuletzt bearbeitet:
Mit Software-Entwicklern (ich darf das sagen, bin nämlich einer) ist es wie mit allen:

Es gibt gute und es gibt schlechte.

Leider mischen beiden Sorten im Geschäft mit. Ich bin der Meinung, dass eine gewisser Teil der Software starke Qualitätsmängel aufweist. Andererseits liegt das aber auch gar nicht an den Entwicklern, sondern an den Managern. Gute Software braucht nämlich Zeit. Und das ist etwas was wirklich immer rar ist.
 
oglimmer schrieb:
Mit Software-Entwicklern (ich darf das sagen, bin nämlich einer) ist es wie mit allen:

Es gibt gute und es gibt schlechte.

Leider mischen beiden Sorten im Geschäft mit. Ich bin der Meinung, dass eine gewisser Teil der Software starke Qualitätsmängel aufweist. Andererseits liegt das aber auch gar nicht an den Entwicklern, sondern an den Managern. Gute Software braucht nämlich Zeit. Und das ist etwas was wirklich immer rar ist.
Außerdem fehlt in vielen Bereichen auch die Notwendigkeit für optimierte Software. :mad:

Gerade bei Anwendungen im Internet- oder Officebereich sind Resourcen heute in rauhen Mengen vorhanden, die dann leider auch dementsprechend verschwendet werden. Bei so manchem JAVA-Progrämmchen kommt mir beispielsweise das kalte Grausen, wenn ich sehe, dass mal eben 50MB bis 100MB RAM verbraten werden. Meist sind es dann auch noch Dinge, die vor einigen Jahren ohne JAVA mit wenigen MB ausgekommen sind.

Natürlich erwarte ich nicht, dass heute jedes Programm mit handoptimierten Assemblerroutinen daherkommt, aber manchmal wäre es schön, wenn so manche Software-Entwickler nicht immer gleich davon ausgehen, dass jeder User absolute High-End Hardware zuhause stehen hat und in 6 oder 12 Monatszyklen aufrüstet...

Anstatt jede neue Version mit Eyecandy zu überladen, wäre es mir machmal lieber, wenn die Softwarefirmen sich mal um das wirklich wichtige zu kümmern, wie Stabilität, Datensicherheit, Fehlerfreiheit, Benutzbarkeit oder einfach nur Geschwindigkeit! Die meisten Nutzer sind wahrscheinlich eher bereit viel Geld für Software auszugeben, wenn die Qualität stimmt und nicht nur die Anzahl der CDs oder DVDs in der Schachtel immer größer wird.
Gerade dies ist eine Marotte, die beispielsweise bei vielen kommerziellen Linux-Distributionen ihren Höhepunkt findet und die Nutzer oft klaglos mitmachen :(
 
weebee schrieb:
...Exakt das ist das Problem, Spielereien hier und objektorientierte Programmiertechniken dort. Keiner fragt mehr, was der Kunde braucht....

Ne Menge Holz in den zwei Sätzen:

"Spielereien hier.." da gebe ich dir Recht, muss nicht sein und wenn, dann sollte man das abstellen können.
"..und objektorientierte Programmiertechniken dort." Objektorientierung ist kein Selbstzweck, um Software langsamer zu machen. Mag sein, dass es ein Nebeneffekt ist aber ich bin froh, dass die Rechner mittlerweile so schnell geworden sind, dass man die freie Wahl hat. Ich bin z.B. froh, mich um die Anwendung die ich schreibe zu kümmern statt den technischen Aspekten. Was mich natürlich nicht von Optimierungen freispricht. Aber den Assembler wieder auspacken musste ich in den letzten 15 Jahren nicht mehr.

"Keiner fragt mehr, was der Kunde braucht" Da gebe ich dir auch gerne Recht. Das fängt bei uns (Entwicklern) aber auch schon an. Da rufst du bei den großen Herstellern doch auch nur in den Wald ohne und Echo. Selbst bei echten Bugs wirst du gerne ignoriert. Anders sieht es vielleicht noch bei kleinen Entwickler- und Benutzergemeinden aus. Vielleicht ein Grund für den Erfolg vieler Open Source Projekte.

Das OSX noch schneller werden kann / wird hängt aber schon alleine mit der Entwicklung des benutzten Compilers zusammen. Da läßt sich immer noch was herausholen egal ob 32/64 Bit

ß
 
Zurück
Oben Unten