"Cooles neues Produkt" im Januar, MacWorld!

Status
Für weitere Antworten geschlossen.
vava schrieb:
._ut ?

Der verschwindet immer bei Major Updates von Apple. Vermutlich um Material für seien Bücher zu sammeln
Der sammelt bestimmt schon fleissig Argumente gegen Intel!
rocketwhore.gif
 
Angel schrieb:
Intel hat die 4Ghz zwar nicht geschafft, bringt dafür jetzt mit Merom aber einen leistungsfähigen Ersatz. IBM hat die 3Ghz nicht erreicht, aber arbeiten sie an einer Alternative? Nein.

Bitte?? Was weisst du denn, was bei IBM entwickelt wird??


Der Mobile G5 erreicht afaik keine höheren Taktraten als der G4, bei seinem schlechterem Leistung/Takt-Verhältnis spricht also eigentlich immernoch nichts für ihn.

Von dem stromspar-970FX red ich nicht. Der ist fertig und wurde in Japan vorgestellt, IBM wird den wohl bald in ihre JS20-Blades einbauen. Ich red von nem Chip, der nie in Serie gebaut wurde...
 
kai_d schrieb:
Ah ja. Wie war das noch? "Mit Intel wird man jedenfalls NIE WIEDER Chip-Engpässe haben"?
Wie oben schon gesagt: Das sind Gerüchte (!), dass Intel nicht genügend liefern könne

kai_d schrieb:
niedriger trotz größerem Akku
Hast du es schon ausprobiert? Ist dir klar, dass zum Beispiel das sehr vergleichbarere Samsung-Notebook eine Akkulaufzeit von über 6 Stunden im Test hatte? Die Grafikkarte wird Apple wohl mehr Akkulaufzeit kosten, als der Intel-Prozessor (Das Samsung gibt's statt GMA950 auch mit X1600 - und vier statt sechs Stunden Laufzeit)

kai_d schrieb:
Ich lach mir hier gerade sowas von den Arsch ab.
Ich auch - aber nicht über den Switch, sondern die Art und Weise, wie manch einer damit öffentlich umgeht
 
Angel schrieb:
IBM hat die 3Ghz nicht erreicht, aber arbeiten sie an einer Alternative?

...klar hat IBM die 3 Ghz erreicht beim PPC....sogar mehr (3,2 Ghz)....leider haben sie die Version im vergangenen Jahr exklusiv an Microsoft für dei XBOX verkauft :(
 
performa schrieb:
Hast du es schon ausprobiert? Ist dir klar, dass zum Beispiel das sehr vergleichbarere Samsung-Notebook eine Akkulaufzeit von über 6 Stunden im Test hatte? Die Grafikkarte wird Apple wohl mehr Akkulaufzeit kosten, als der Intel-Prozessor (Das Samsung gibt's statt GMA950 auch mit X1600 - und vier statt sechs Stunden Laufzeit)

Die Akkulaufzeiten der neuen Dualcore-Plattform sollen bei Notebooks mit Intels integriertem Grafikcore laut Herstellerangabe nicht schlechter als die der Vorgängergeneration (Sonoma) sein. Unsere ersten Messungen an einem Vorseriengerät mit dediziertem Grafikchip (ATi X1600) zeigen dagegen ein vollkommen anderes Bild und trüben den positiven Eindruck an der höheren Performance nachhaltig.

Unter Last: 2:15-2:30

PB 15" 1.67GHz G4 unter Last: 2:48
PB 17" 1.67GHz G4 unter Last: 3:22

Was glaubst du wohl, warum Apple selbst _plötzlich_ keinerlei Angaben zur Akkulaufzeit mehr macht? ;-)
 
in2itiv schrieb:
...klar hat IBM die 3 Ghz erreicht beim PPC....sogar mehr (3,2 Ghz)....leider haben sie die Version im vergangenen Jahr exklusiv an Microsoft für dei XBOX verkauft :(

stimmt. jetzt wo dus sagst fällt mir auch wieder ein dass die bei nem kunden der spiele herstellt auch vor nem jahr nen xbox360 emulator auf nem g5 mac laufen hatten um ihre spiele zu schreiben...
 
kai_d schrieb:
Im übrigen hat Altivec drastisch höheres Potential für Optimierung als SSE
Das ist auch mein Eindruck, da stimme ich dir zu.
Ganz andere Frage ist es allerdings, ob Altivec "schwerer und komplizierter" zu optimieren ist, als SSE.

kai_d schrieb:
Es war schon immer so: Intels und AMDs CPUs kommen mit Scheisscode besser klar als PPC-CPUs. Bei optimiertem Code zieht PPC vorbei
Hehe... Du hast da auch Recht. Allerdings denke ich: Erstens bewegt sich die PC-Welt nicht in Richtung hoch- und handoptimiertes Coding, ganz im Gegenteil (Apple zum Beispiel scheint ja auch an Low Level Byte Code interessiert)
Zweitens : Man kann nicht alles vektorisieren, oder um es einfach zu sagen: Altivec allein macht kein vielseitiges - und vor allem: vielseitig performantes Computersystem aus.

Und ohne Altivec wäre der G4 noch dramatischer im Rückstand gegenüber Intel.

Deshalb sind deine Virginia-Cluster-Beispiele für viele Anwendungsgebiete und User, die Apple bedient, ziemlich irrelevant

kai_d schrieb:
3) Laptop-G5 war fertig, hat Apple ABGELEHNT, wollten sie nicht, zu teuer
Woher "weißt" du das so sicher?
Der Freescale-CEO meinte in seinem Interview nur, dass IBM kein Interesse gehabt hätte. Und den Laptop-G5 gibt es immer noch nicht.

Gleichzeitig entwickelt aber P.A.Semi sowas, und IBM hat nach dem angekündigten Apple-Switch im Juli "plötzlich" seine neuen Stromspar-G5s angekündigt (!). Riecht ein bißchen nach Trotzreaktion...
 
kai_d schrieb:
Die Akkulaufzeiten der neuen Dualcore-Plattform sollen bei Notebooks mit Intels integriertem Grafikcore laut Herstellerangabe nicht schlechter als die der Vorgängergeneration (Sonoma) sein. Unsere ersten Messungen an einem Vorseriengerät mit dediziertem Grafikchip (ATi X1600) zeigen dagegen ein vollkommen anderes Bild und trüben den positiven Eindruck an der höheren Performance nachhaltig.
:mad:

ICH SAGE DOCH GERADE, DASS ES (jedenfalls bei den sehr ähnlich ausgestatteten Samsung-Rechnern) DIE GRAFIKKARTE ZU SEIN SCHEINT!

Nicht Intel und seine Chips.
Noch mal: Apple müßte keine X1600 in den Macbook Pros verbauen.
Um nochmal aus deinem verlinkten Artikel zu zitieren:

"Wie wir aber weiter unten im Text beweisen werden, ist die neue CPU definitiv nicht der Schluckspecht.

(...)

Unser Testsystem mit dediziertem Grafikchip brachte es jedenfalls gerade mal auf knapp über zwei Stunden Akkulaufzeit. An der CPU liegt das nicht, wie wir zeigen konnten. Yonah oder besser gesagt der Core Duo Prozessor ist definitiv der am effizientesten arbeitende und sparsamste (Mobil-)Prozessor, den wir je gesehen haben. "


kai_d schrieb:
Akkulaufzeit niedriger trotz größerem Akku,
(...)
Ist ja echt voll supi, der Intel-Umstieg!...
Warum muß ich wegen deines Tomshardware-LInks auf einmal an "Eigentor" denken? ;)



Aber ich geb dir nun gern auch noch einen Link:

http://www.chip.de/artikel/c1_artikel_18127597.html

Zitat:
"Das erste Centrino-Duo-Notebook in unserem Testlabor ist ein Prototyp von Samsungs Sens X60. Es konnte auf Anhieb überzeugen, vor allem dank der leistungsstarken "Core Duo T2600"-CPU: Obwohl nur mit DDR2-533-RAM bestückt, schlug der Prototyp ein gleich ausgestattetes, herkömmliches Centrino-Notebook bei den Standard-Benchmarks deutlich – bei Multicore-optimierten Tests wie dem CineBench war das Testmodell sogar mehr als doppelt so schnell.

Der Clou: Die Laufzeit leidet darunter nicht. Der Prototyp lief unter Office-Last 6:24 Stunden – ein paar Minuten länger als die alte Centrino-Plattform. "




Wessen PowerBook hält im Akkubetrieb bei Office-Nutzung sechseinhalb Stunden? Bitte mal melden!
 
Zuletzt bearbeitet:
kai_d schrieb:
2) 9-10 GHz P4? Gibt's nicht, wurde leider eingestampft

Wann sollte der denn kommen? im Jahr 2010? Meine Güte, jemand der hier ständig auf Marketing-Gequatsche meckert, beschwert sich wegen sowas? Spricht nicht grade für dich.

kai_d schrieb:
Das frag ich dich. Warum bist du Apple so religiös ergeben? Warum KÖNNEN immer nur die anderen schuld sein und niemals Apple?

Religiös scheinst hier vor allem du zu sein. Meine Güte, hast du nix besseres zu tun, als dich am PPC aufzugeilen? Dann kauf dir den Kram halt nicht wenns dir nicht mehr passt. Zwingt dich doch niemand nen Apple zu benutzen, wenn du nicht grad von Apple-Software abhängig bist. Und es ist ja nun nicht so als ob andere PCs nicht funktionieren würden.
Achja ich vergaß: der Apple-Effekt fehlt :rolleyes:
Find dich mal damit ab, dass irgendwelche Technolgien immer wegen des Massenmarktes sterben werden. Die Schuld trifft wahrscheinlich Apple insofern, als dass der Kundenkreis zu klein war um die Investition in Re-Designs des PPC zu rechtfertigen. Thowe hat das hier schon mal erwähnt.
 
d4ve schrieb:
Wann sollte der denn kommen? im Jahr 2010? Meine Güte, jemand der hier ständig auf Marketing-Gequatsche meckert, beschwert sich wegen sowas? Spricht nicht grade für dich.

Achso, wenn Intel etwas ankündigt und sich nicht an die selbst gesteckten Ziele hält ist das was anderes als bei IBM ?

d4ve schrieb:
Find dich mal damit ab, dass irgendwelche Technolgien immer wegen des Massenmarktes sterben werden

Und ? Wird die dadurch durchgesetzte Technologie in irgendeiner Form besser oder fortschrittlicher ?
 
Zuletzt bearbeitet:
performa schrieb:
Das ist auch mein Eindruck, da stimme ich dir zu.
Ganz andere Frage ist es allerdings, ob Altivec "schwerer und komplizierter" zu optimieren ist, als SSE.

Dafür müssen wir erstmal festellen, was "optimieren" bedeutet. Der Begriff selbst ist zu vage als dass man da konkret werden könnte

Es gibt drei Arten von manueller Optimierung:
1) Optimierung des eigenen C-Codes (Sachen die man eigentlich gar nicht rechnen braucht von vorneherein ausschliessen und solche Sachen, bringt meist extrem viel!)
2) Vektorisierung des eigenen Codes (läuft dann auf SSE oder Altivec, man muss seine Arrays (Datenblöcke) so aufbauen, dass sie sich für SIMD eignen und seinen normalen C-Code in Vektorcode umschreiben.
3) Low-Level-Assembleroptimierung der Hotspots (machen heute leider nur noch viel zu wenige)

Dann gibt's noch die Compiler. Die machen offensichtlich 3) schon immer, wenn auch nicht so gut wie einige Programmierer-Asse, und seit ein paar Jahren (Intel) bzw Monaten (PPC) auch 1) und 2) (wobei sie schon vorher ein bisschen von 1) machten, nicht benutzte Variablen wegoptimieren usw, aber das nur am Rande!). Dies geschieht in Form von Auto-Parallelisierung (damit's auf mehreren Cores oder mit Hypnothreading läuft!) und Auto-Vektorisierung (damit läuft's dann auf Altivec und SSE). Die Compiler können da schon was rausziehen aus singlethreaded scheisscode, aber zumeist liegt das Dimensionen hinter händisch parallelisierten oder vektorisiertem Code.

Der Punkt ist, dass sich Altivec nicht so gut eignet für die Vektorisierung per Compiler wie SSE, denn es wurde nicht dafür designt. Intel hat SSE in drei Versionen umgebaut, dass es sich dafür besser eignet.

Der andere Punkt ist, dass wenn echter Vektorcode händisch geschrieben wird (und Apples eigene Programme tun das!) Altivec sowas von an SSE vorbeizieht, dass es kein Spass mehr ist.

So. Zusammengefasst könnte man das so darstellen:
Echter Vektorcode (Sieger: Altivec) > Compiler-Optimierungen (Sieger: SSE) > Scheisscode mit Scheisscompiler

Um auf dein Statement oben zurückzukommen: Nein, Altivec ist nicht "schwerer zu optimieren". Lies das Simdtech-Posting durch: "I've taken pride in being able to handily beat the SSE2 version and in many cases doing so with far less instructions.". Altivec eignet sich nur (bisher!) schlechter für Compiler-Optimierungen, händischen Vektorcode schreibt man damit aber leichter.

Da IBM aber in Zukunft bald nur Altivec-fähige CPUs baut und Cell _nur_ mit Vektorcode wirklich performen kann und da IBM auch zu großen Teilen für die Intelligenz in Intels Autovektorisierung verantwortlich ist (ja, ist so! Dummerweise haben die Entwickler, die sie da hingeschickt haben nen NDA unterschrieben, so dass Intel das Knowhow per Patent schützen konnte) werden wir mit den ganzen Konsolen (ja, auch die Xbox hat drei Altivec-Units!) wohl sehr bald richtig geile autovektorisierende Compiler mit massiver Eigenintelligenz sehen. Das alles verpasst Apple aber jetzt wohl leider (bzw. evtl. "lässt verpassen" weil sie die Intel-Macs nicht schlechter als die 'alten' PPC-Macs aussehen lassen können!), weil sie sich gerade wie die Party richtig lustig wurde verpisst haben, nachdem sie jahrelang die Segnungen von Altivec angepriesen haben und IBM überhaupt erst dazu überredet haben.

Hehe... Du hast da auch Recht. Allerdings denke ich: Erstens bewegt sich die PC-Welt nicht in Richtung hoch- und handoptimiertes Coding, ganz im Gegenteil (Apple zum Beispiel scheint ja auch an Low Level Byte Code interessiert)

Oh doch. Mit den Multi-Core-CPUs werden ne Menge Leute, die bis heute mit Scheisscode durchgekommen sind weil die Single-CPUs immer schneller wurden ihren alten Scheisscode dramatisch überarbeiten und modernisieren MÜSSEN, auf x86 wie auf PPC!

Zweitens : Man kann nicht alles vektorisieren, oder um es einfach zu sagen: Altivec allein macht kein vielseitiges - und vor allem: vielseitig performantes Computersystem aus.

Man kann fast alles, was rechenintensiv ist vektorisieren und inzwischen sehr viel parallelisieren. Maxon und andere sagten z.B. immer, dass Raytracing inhärent ungeeignet ist für Vektorisierung. Und heute macht die Cell 60 fps Raytracing in Echtzeit in 1080 HD-Auflösung mit dem vektorisierten Saarcor-Renderer! ;-) Es ist alles eine Frage, wie du an das Problem rangehst. Manche Herangehensweisen sind für Vektorisierung wirklich ungeeignet, aber Probleme kann man eben IMMER auf mehrere Arten lösen!

Und ohne Altivec wäre der G4 noch dramatischer im Rückstand gegenüber Intel.

Jo, das hat ja niemand bestritten, oder? ;-) Altivec ist ja nun auch leckere 7 Jahre alt inzwischen....

Deshalb sind deine Virginia-Cluster-Beispiele für viele Anwendungsgebiete und User, die Apple bedient, ziemlich irrelevant

Den Virginia Cluster hab ich nicht wegen Altivec angeführt sondern wegen der FPUs. Stinknormaler Skalarcode, nix Vektor! ;-)

Woher "weißt" du das so sicher?

Keine Ahnung, ist mir gerade nur so eingefallen! ;-))))

Der Freescale-CEO meinte in seinem Interview nur, dass IBM kein Interesse gehabt hätte. Und den Laptop-G5 gibt es immer noch nicht.

Michael Mayer ist seit 2004 bei Freescale. Was 2005 bei IBM abging weiss der also gar nicht mehr, das ist also wohl ne reine Vermutung seinerseits. Im übrigen sagte er nur, dass IBM sich dafür entscheiden hätte, ihren Fokus auf die Konsolen zu richten. Was der Grund für diese Entscheidung war wissen wir weiterhin nicht - eventuell ein Steve Jobs, der IBM zu arg auf den Sack ging und der nie zufriedenzustellen war, egal wieviele Chip-Designs man ihm anbot? ;-) Oder ein Apple, das sich nie an Entwicklungskosten beteiligen wollte oder die Chips immer fast geschenkt wollte oder sie ständig zu spät bestellt hat, so dass in der Öffentlichkeit IBM für "Lieferschwierigkeiten" verantwortlich gemacht wurde?

Gleichzeitig entwickelt aber P.A.Semi sowas, und IBM hat nach dem angekündigten Apple-Switch im Juli "plötzlich" seine neuen Stromspar-G5s angekündigt (!). Riecht ein bißchen nach Trotzreaktion...

Ja glaubst du, die haben ne ganze CPU-Generation über Nacht einfach mal so entwickelt nur als Trotzreaktion?
 
d4ve schrieb:
Wann sollte der denn kommen? im Jahr 2010? Meine Güte, jemand der hier ständig auf Marketing-Gequatsche meckert, beschwert sich wegen sowas? Spricht nicht grade für dich.

Bitte??? ICH weise DICH darauf hin, dass hüben wie drüben 90nm schwieriger als erwartet war und Intel da KEIN STÜCK BESSER ist und du unterstellst MIR Gläubigkeit gegenüber Marketinggequatsche?

Immerhin musste IBM nicht gleich seine ganze CPU-Architektur einstampfen und die gesamte Roadmap auf die Mobil-CPU umstellen, die man gottseidank noch in petto hatte...

Religiös scheinst hier vor allem du zu sein. Meine Güte, hast du nix besseres zu tun, als dich am PPC aufzugeilen? Dann kauf dir den Kram halt nicht wenns dir nicht mehr passt.

Werd ich auch nicht machen. Ich werd mir nen Quad hinstellen und hoffen, dass der Alptraum in 5 Jahren vorbei ist, wenn der mal zu lahm geworden ist! ;-)

Die Schuld trifft wahrscheinlich Apple insofern, als dass der Kundenkreis zu klein war um die Investition in Re-Designs des PPC zu rechtfertigen. Thowe hat das hier schon mal erwähnt.

Die Schuld trifft Apple, aber das Apple extreme Kosten gehabt hätte wenn sie bei PPC geblieben wären kann ich nicht so ganz sehen. Der Intel-Switch kostet jetzt auch hunderte von Millionen und dauert Jahre, das ganze Geld hätte man genausogut in eine Cell-Optimierung der Pro-Suite (und später OS X selbst) und einen neuen G4-Chipsatz für den Dualcore G4 stecken können!... Mit dem Unterschied, dass darunter wenigstens nicht die Kunden leiden würden und für neue Versionen in die Tasche greifen müssen!
Neue Chips entwickeln IBM und Freescale sowieso, ob mit oder ohne Apple!.. Allerdings baut IBM auch Chipdesigns nach Extrawünschen (siehe Xbox, PS3, Revolution!), was Apple sich bei Intel mal lecker fisten kann...
 
kai_d schrieb:
Ah ja. Wie war das noch? "Mit Intel wird man jedenfalls NIE WIEDER Chip-Engpässe haben"?

Ich lach mir hier gerade sowas von den Arsch ab.... Akkulaufzeit niedriger trotz größerem Akku, miese iLife-Benchmarks und die ersten Chip-Engpässe. Ist ja echt voll supi, der Intel-Umstieg!...
1. Handelt es sich bzgl. der Lieferengpässe um ein sog. Gerücht! Da hat hier irgend Jemand etwas in den Raum geworfen und du nimmst es mal gleich für bare Münze!
2. Steht irgendwo etwas über die Laufzeit? - Nein!
3. Gibt es Benchmarks bzgl. der Laufzeit? - Nein!
4. Hoho, welch anspruchsvolle iLife Benchmarks... - Die hauseigenen Produkte waren einige der wenigen Produkte für Macs, die adäquat optimiert waren...vermutlich sind sie das einfach für Intel noch nicht!
5. Es hat doch gar niemand behauptet, dass es nie wieder Lieferengpässe geben werde! Am Anfang einer neuen CPU-Generation gibt es auf jeden Fall immer Engpässe...das rechne ich als denkender Mensch mit ein!
 
Bißchen viel hätte, wäre, wenn. Wenn ich das schon höre: Apple hat neue bessere Prozessoren abgelehnt und den FSB bewußt niedrig gehalten. Ich bin sicher da waren nicht nur Apple und IBM drin verwickelt, sondern auch CIA, BND, die Illuminaten und nicht zu vergessen die Mafia, das Ganze hiess dann MASTER PLAN und alles nur um den genialen PPC vom Markt zu wischen. So muß es gewesen sein.

Was auch immer von IBM oder Intel angekündigt war... was *jetzt* ist zählt, alles andere ist graue unbelegte Theorie. Höchste Zeit umzudenken.
 
kai_d schrieb:
Der Punkt ist, dass sich Altivec nicht so gut eignet für die Vektorisierung per Compiler wie SSE
Ja. Aber durch Vektorisieren per Compiler wird es für den Entwickler etwas einfacher.


kai_d schrieb:
Der andere Punkt ist, dass wenn echter Vektorcode händisch geschrieben wird (und Apples eigene Programme tun das!) Altivec sowas von an SSE vorbeizieht, dass es kein Spass mehr ist.
Jein. Ich gebe zu, dass ich kein Programmiererass bin - aber mein Eindruck, auch als Anwender, ist, dass diese "Weisheit" so pauschal der Vergangenheit angehört. Als Altivec eingeführt war es sicherlich eine heiße Sache, zumal wenn man sich anschaut, wo und wie Apple-Rechner verwendet wurden. Ich würde allerdings konstatieren, dass Intel technologisch in den letzten Jahren in vielen anderen Bereichen technologisch größere Verbesserungen erzielt hat, als Freescale. Im Thread "War IBM da nicht mal voreilig" haben wir es schon ellenlang diskutiert. Wobei ich bei Intel noch einige - vorsichtig gesagt - nicht ganz so lange Entwicklungen, wie die Netbus-Architektur sogar einmal ausklammere.

Aber ich frage mich schon, ob Altivec wirklich in der Praxis SSE so überlegen ist.
Bei wikipedia bin ich rein zufällig über folgendes gestolpert:

"Essentially no publicly disclosed objective analysis demonstrates any particular advantage of AltiVec over the SSE family of SIMD instruction sets"
Und tatsächlich - ich frage mich auch, wo man es tatsächlich in Anwendungen mal bemerken würde - bzw. wo man mal beide head-to-head verglichen hätte.

Steve hatte auch damals bei Photoshop schon immer eine Lieblings-Benchmarks. Aber genaus fielen auch schon viele andere Aktionen deutlich dagegen ab - man darf hier getrost vermuten, dass Adobe nicht konsequent bis zum Ende "durchoptimiert" hat. Ist auch bei dem Alter des zugrundeliegenden Codes nicht zu erwarten.

Der Punkt ist: Den Vorteil, den Altivec vielleicht hatte, hat Intel wohl ein gutes Stück wettgemacht a) durch SSE und Compiler und b) schlicht durch "rohe Gewalt", pyhsische Verbesserungen in der Produktionstechnik etc... Während es SSE - da einiges der Compiler abnimmt - hier meines Erachtens doch relativ einfach macht (was nicht automatisch heißt, dass tatsächlich bessere Ergebnisses erzielt werden).
Und es ist nun nicht gerade so, als ob die halbe Welt für Altivec entwickeln würde (aber sie tut's mit/für SSE)


kai_d schrieb:
"I've taken pride in being able to handily beat the SSE2 version and in many cases doing so with far less instructions."
Der Tonfall verrät das Zitat schon als von einem "überzeugten" Altivec-Anhönger stammend. Er erreicht damit auch anscheinend ganz gute Ergebnisse. Ich meinte mit "einfach optimierbar" auch keinesfalls die benötigte Anzahl an Instruktionen, sondern die dahinterliegende Logik. Apple schreibt selbst dazu übrigens - und bringt es damit auf den Punkt, denke ich:

"AltiVec is a rich ISA. This gives you a lot of freedom. There are frequently three ways to do anything, one of which is highly unintuitive but delivers a miracle in two instructions."


kai_d schrieb:
Da IBM aber in Zukunft bald nur Altivec-fähige CPUs baut
Naja... IBM hat hier gar nicht so viel eingebracht hätte, als vielmehr das "Ding" einfach "dranzubasteln"...


kai_d schrieb:
Michael Mayer ist seit 2004 bei Freescale. Was 2005 bei IBM abging weiss der also gar nicht mehr, das ist also wohl ne reine Vermutung seinerseits.
Naja, das glaube ich nun gar nicht. Der wird schon noch ein wenig seinen Einblick in IBM haben, einige Leute kennen, und Entwicklungen ganz gut abschätzen können.
Wenn du jahrelang bei einem Unternehmen gearbeitet hast, und zu einem anderen wechselst, dass im Grunde sehr ähnliches macht (hier: PowerPC-Prozessoren herstellen), dann wirst du auch nicht behaupten, du könntest nur noch "ins Blaue spekulieren", oder?

kai_d schrieb:
Das alles verpasst Apple aber jetzt wohl leider (bzw. evtl. "lässt verpassen" weil sie die Intel-Macs nicht schlechter als die 'alten' PPC-Macs aussehen lassen können!), weil sie sich gerade wie die Party richtig lustig wurde verpisst haben, nachdem sie jahrelang die Segnungen von Altivec angepriesen haben und IBM überhaupt erst dazu überredet haben.
Oh, da wäre ich gar nicht so sicher. Wie wir sehen, macht sich Apple immer mehr von der Prozessorarchitektur unabhängig. Was ja letztlich den Switch zu Intel erst möglich gemacht hat, und dazu geführt hat. Und das war noch nicht mal der erste "Switch".
Und mal ehrlich: Wenn PowerPC, oder irgendwas anderes in 5 - 10 Jahren der "letzte Schrei" und die große Hoffnung für die Zukunft ist, dann halte ich es für sehr gut möglich, dass Apple einfach wieder wechselt. Was sie früher gesagt haben, dass kümmert zumindest Steve doch relativ wenig - wie gerade dieser Switch jetzt wieder beweist.

kai_d schrieb:
Im übrigen sagte er nur, dass IBM sich dafür entscheiden hätte, ihren Fokus auf die Konsolen zu richten.
Ja.

kai_d schrieb:
Was der Grund für diese Entscheidung war wissen wir weiterhin nicht
Dann behaupte doch nicht, du wüßtest, warum es kein Mobile-G5 rechtzeitig gab. ;-)

kai_d schrieb:
Oder ein Apple, das sich nie an Entwicklungskosten beteiligen wollte
Tja, bei Intel werden die Entwicklungskosten über den Preis mitbezahlt - und auf eine größere Menge Abnehmer verteilt.


Ach ja, noch ein Nachwort zu den Intel-CPUs:
Ich bin mir gar nicht sicher, ob Intel da mit x86 wirklich die cleverere und modernere Technologie hat.
Eher nicht - selbst wenn man ein paar ganz uralte Zöpfe abschneiden würde ;-)
Aber der Punkt, warum ich den Intel-Switch richtig finde, ist folgender:

Intel hat bei den Prozessoren immens viel bei der Produktionstechnologie (auch jetzt 65nm) herausgeholt - wofür sie im übrigen auch eine Menge Geld investieren, und deutlich vor Freescale stehen dürften. Deshalb konnten und können sie den Cache so deutlich vergrößern, im Gegensatz zu verfügbareren PowerPCs, deshalb können sie den Front Side Bus so hochfahren, deshalb können sie nun einigermaßen stromsparende Dual-Cores anbieten. Ich bin gar kein großer Anhänger der x86-Architektur - und ich bin überzeugt, nicht mal Intel ist glücklich darüber, dass sie aus Kompatibilitätsgründen (Windows, bestehende Software) daran gebunden sind. Nichtsdestotrotz sind die Ergebnisse, die Intel in letzter Zeit damit erreicht, ziemlich beeindruckend.

Und im übrigen bin ich mehr ziemlich sicher, dass Intel nicht so bald das Interesse am PC-Markt und Mobile-Markt verlieren wird. Während wir ähnliches gerade bei IBM und Freescale erleben... Michel Mayer sagt selbst, dass sich das Verteidigen des PC-Marktanteiles nicht lohne...

Und dann spielen wirtschaftliche Überlegungen für Apple sicherlich eine große Rolle - dass sich Entwicklungskosten auf eine immense Zahl an Einheiten verteilen, dass Apple eine Menge Hardware nicht mehr selbst entwickeln muß, sondern auf Referenzdesigns zurückgreifen kann. Denn das halte ich für Apples große Stärke.
 
kai_d schrieb:
Mein Gott, wie oft denn noch?
Gebetsmühlenartige Wiederholung macht keine Wahrheit draus

kai_d schrieb:
1) Wo ist der 4 GHz P4?
2) 9-10 GHz P4? Gibt's nicht, wurde leider eingestampft
3) Laptop-G5 war fertig, hat Apple ABGELEHNT, wollten sie nicht, zu teuer
1) Am Markt nicht erwünscht, durch andere Designs ersetzt
2) Gähn!
3) Quelle? Halte ich für ein reines Gerücht

kai_d schrieb:
Das frag ich dich. Warum bist du Apple so religiös ergeben? Warum KÖNNEN immer nur die anderen schuld sein und niemals Apple?
Schuld? Woran? Apple hat entschieden, andere CPUs zu verwenden, Gründe dafür werden vorhanden sein, sonst hätte man nicht gewechselt.

Wer redet von Schuld?

Ich bin Apple nicht ergeben und kritisiere sie auch. Wenn ich einen Grund sehe. Im Moment scheint mir eher, manche Leute wollen einfach nicht, dass sich etwas ändert, ob zum Positiven oder zum Negativen. Weckt Assoziationen bei mir, und keine guten.

kai_d schrieb:
Was glaubst du wohl, warum Apple selbst _plötzlich_ keinerlei Angaben zur Akkulaufzeit mehr macht? ;-)

Das wäre eine reine Spekulation.

Die Laufzeit des Acer 8204 mit der 2 GHz - Version des Core Duo und ansonsten sehr ähnlichen/identen Grunddaten sind recht akzeptabel

PS: Der aggressive Ton ist IMO befremdlich und trägt nicht dazu bei, Respekt aufzubauen
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten