Mac's mit Intel inside?

Sollte Apple die Prozessoren wechseln?

  • nein, lieber nicht, motorola findet den anschluß wieder

    Stimmen: 80 42,8%
  • ja, bevor Apple den anschluss verpasst

    Stimmen: 67 35,8%
  • ja, nur wenn die Macsoftware auch auf dem Intel/AMD läuft

    Stimmen: 40 21,4%

  • Umfrageteilnehmer
    187

appelknolli

Aktives Mitglied
Thread Starter
Dabei seit
13.11.2001
Beiträge
1.195
Reaktionspunkte
5
demnach wird nicht mehr kategorisch ausgeschlossen das es auch bald x86 prozessoren für MacOS X geben wird.

ich meine verständlich wäre es ja, wenn motorola nicht aus dem … kommt muss man halt nach anderen hersteller suchen. leider besitzt IBM nicht das altivec patent sonst könnte ich mir vorstellen das die schon längst einen leistungsstärkeren prozessor rausgebracht hätten. ich hatte mich schon zur macworld gewundert. ich dachte es kommen neue PowerMac's da ich wärend der macworld nirgends auf den oder unter dem tischen einen mac gesehen hatte und motorola sagte ja selber sagte „es stecke noch sehr viel potential im G4“ bitte wo bleibt der?


viele grüsse, appel :D

geändert wegen verwechslung :rolleyes:
 
Zuletzt bearbeitet von einem Moderator:
Ich möchte keinen Intel oder AMD inside haben...
Leistungsmäßig sind die nicht schlecht, aber dann würde es adé leise Macs heißen, da jene Prozessoren soooo viel Abwärme produzieren, daß fortan alle Macs mit mindestens 3 Lüftern und entsprechender Geräuschkulisse geliefert würden... :D

Gruß, Vevelt.
 
vielleicht sollte man da noch erwähnen das die mac's noch anfälliger gegen hitze werden und wir auch bald wasser gekühlte und verspoilerte prozessoren haben :( die noch mehr krach machen. was ist mit den energiesparenden prozessoren? laufen die PB & Ibooks dann auch nur 2-3 stunden oder haben wir dann ak(ku)tenkoffer und rucksäcke für die akkus?

viele grüsse, appel :D
 
Hi,

unter berücksichtigung dass dann die Rechner genau so gut oder sogar besser laufen als jetzt ist es mir persönlich eigendlich egal ob die CPU von IBM, Motorola, Intel, AMD oder sonstwem hergestellt werden.

Apple sollte sich nicht im Voraus auf einen Hersteller beschränken, als IBM nicht aus den Pötten kam sind sie zu Motorola gegangen, Motorola kommt nicht aus den Pötten also... .

Die Frage die sich dann aber stellt ist die Systemarchitektur, Apple setzt voll auf RISC Prozessoren Intel oder AMD stellen meines Wissens nach nur CISC Prozis her in wie weit sich die in die Systemarchitektur einbinden lassen? KEINE AHNUNG!

Bin auf jeden Fall gespannt wie sich Apple im Bereich Prozis weiterentwickeln will. Denn auf dem gebiet haben sie es nötig.

greetz lost
 
uuups, vevelt da waren wir beide beim schreiben und hatten die selbe eingebung, nur du warst etwas schneller :D
 
RISC oder CISC...

Tja, RISC und CISC läßt sich heute gar nicht mehr sooo auseinanderhalten, da in den Intel Prozessörchen auch schon weite Teile komplett als RISC ausgeführt sind...

Gruß, Vevelt.
 
zum ersten fände ich es schade, wenn eine "Portierung" auf IBM kompatible Maschinen geschehen würde. Die Probleme, die dort vorherrschen sind ja letztendlich auch durch die Vielfalt von Kartenherstellern entstanden. IBM soll angeblich einen G3 Prossesor mit 1.8 GHz und sehr geringer Leistungsaufnahme haben, die Entwickler von Apple setzen aber auf die AltiVec Architektur. Ich vermisse seit längerem Datenblätter von den herkömlichen Prozessoren. Bis zum G3/266 wurden noch direkte Vergleiche zwischen den einzelnen Prozessoren erstellt. Vielleicht soll es auch nur ein "Schuß vor den Bug" des Schiffes Motorola sein, um die Designer wieder mal "wach" zu rütteln. Technologievergleich ist eine gute Sache, soweit ich manche Infos richtig interpretiert hatte, muss ich Vevelt leider Recht geben. Es gibt Prozessoren (Apollo), die der unseren Prozessoren sehr ähnlich ist.
Hier auch noch ein paar Zeilen von Macguardians:

Jobs-Klarstellung: Apple bleibt bei PPC/IBM/Motorola!
War nix mit OS X on Intel!

von kai | 18:28 Uhr

Eine Klarstellung zu Steves Zitat "and then we'll have options" (siehe weiter unten) beweist, dass das ganze aus dem Kontext gerissen war, denn der nächste Satz lautete "But right now, between Motorola and IBM, the roadmap looks pretty decent.", ausserdem sagte er davor schonmal "And the roadmap looks pretty good." - Lasst uns hoffen, dass dem auch wirklich so ist!
Mit den Gerüchten um eine Einstellung der G5-Entwicklung bei Motorola macht sich jedoch Unsicherheit breit in der Mac-Gemeinde über die Zukunft der Plattform, vielleicht sollte Apple diesmal seine "keine Kommentare zu zukünftigen Produkten"-Strategie beiseite lassen und mal ausnahmsweise ganz grob sagen, was sie planen? Muss ja nichtmal was konkretes (=absatzschädigendes) sein wie Produktnamen, Features, Release-Zeitpunkt oder so was, ein simples "Ja, wir entwickeln am G5" oder "wir arbeiten mit IBM an der Sache" oder irgendwas ganz vages in der Richtung würde uns ja schon genügen! Nur, das wir wissen dass überhaupt was kommt! - ein offizielles Statement zu zukünftigen CPU-Generationen wie dem G5 von Apple selbst hab ich ausser der angeblichen Aussage eines deutschen Apple-Mitarbeiters "G5 wird kommen" (o.s.ä.), die ein Leser nach meiner letzten Aufforderung, mir da konkrete Belege zu bringen noch nicht gesehen!..
Manchmal könnte ich Tony Smith erwürgen für den G5-Hype-Flaschengeist, den er (wie's aussieht alleine, man liefere mir eine andere Quelle als seine TheReg-Artikel, auf die sich scheinbar alle anderen direkt oder indirekt bezogen haben!) da rausgelassen hat!... Wäre das alles nicht passiert, wären wir wahrscheinlich absolut zufrieden mit allem, was jetzt noch an G4s kommt!.. Mir persönlich ist ja eigentlich sowieso unterm Strich egal, wie die CPUs heissen und die MHz sind für mich sekundär, Hauptsache es kommt DDR-RAM, mehr L2-Cache und ein schneller Frontsidebus!.. Und ne FPU-Einheit mehr wäre natürlich genial, dann dürft ihr den Chip meinetwegen auch 'Heinz' nennen! ;-)

Zitat ende
 
Fakt ist doch, dass Motorola am Ende ist!

Diese Entwicklung zeichnet sich schon seit ein paar Jahren ab, und hat sich in immer kürzeren Abständen potenziert.

Es wurde von Motorola ja schon vor langem als offizielle Firmenpolitik lanciert, hauptsächlich auf DSP's und Embedded Systeme zu setzten und für diese zu entwickeln. Apple als einziger Abnehmer bringt nicht die Stückzahlen, um Prozessoren wirtschaftlich zu entwickeln und herzustellen. Der sagenhafte G5 kam dann als 8500 für Netzwerkrouter zum Einsatz (bei den großen von z.B. Cisco).
Das ist Motorolas Kerngeschäft.
Die Prozessorentwicklung ist eine immens Kapital- und Recourcenintensive Angelegenheit.

Und das vielgepriesene Altivec-Konzept ist bei nüchterner Betrachtung weit hinter den ursprünglichen Erwartungen zurückgeblieben.

Motorola hat sich schlicht verhoben. Mit ein Grund: die faktische Auflösung der PowerPC-Allianz aus Apple, IBM und Motorola.

IBM hätte das Zeug dazu, die Sache zu stemmen, hat sich aber vor Jahren von Motorola abgekoppelt (weil sie eben das Altivec-Konzept ablehnten) und sind ihrer eigenen Wege gegangen. Die Philosophie lautet da eher: keep it simple and fast; gerade aktuelle Inkarnation: der Power4. Dessen Core besteht im Prinzip aus 4 G3-Prozessoren (bei einem Chip) und rockt ganz gewaltig. Das Teil spielt natürlich in einer anderen Liga (Server) und kostet auch ganz schön.

Eine Motorola CPU kosten 4x so viel wie ein vergleichbarer Chip von AMD oder Intel. Anmerkung am Rande: Der Urvater der aktuellen AMD's (Athlon) kommt übrigens aus dem Hause NeXT (genau, die Firma von Steve Jobs, die sich von Apple hat wieder aufkaufen lassen und deren Entwickler wir jetzt OS X verdanken) und firmierte vor Jahren (ich glaube 7 oder so) unter NexGen als direkter Konkurrent zu den Pentiums.

Er war bei Integeroperationen fast doppelt so schnell, war in RISC-Architektur ausgeführt und interpretierte den CISC-Code. Pferdefuß: Er hatte kein FloatingPoint-Unit.
NeXt verkaufte die Entwicklung an AMD.

Die Probleme, die den x86-Markt und deren Produkte plagen, müssen bei einem Wechsel der Architekur bei Apple nicht sein (Hardware-Dongle), nur spezifizierte Hardware-Komponenten, Firmware (ist noch gar nicht so lange her, bei Festplatten und sonstigen Laufwerken, ist immer noch so, bei Grafikkarten).

Usw.

Darwin gibt es ja schon in Versionsgleichstand auf der Intelplattform.

Mal sehen...
 
Zuletzt bearbeitet:
Nur mal so als Gedankenanstoß:

Auf der Macworld verkündet Jobs eine Kooperation für mobile Communications mit Sony/Ericsson, wieso nicht mit Motorola (die bauen doch auch immer noch Handies, oder)?

Nachtrag:

Die c't versuchte sich vor einiger Zeit in einem möglichst objektiven Vergleich der beiden Prozessor-Architekuren. Und stellten dabei fest, das die gemessenen Leistungen maßgeblich von der Güte der Compiler abhängt. Jetzt gibt es abgesehen von dem GNU-Compiler nur noch einen nennenswerten kommerziellen Compiler für die PowerPC's: den Codewarrier von Metroworks.

Würde dieser guten Code produzieren, würde das einen Leistungsschub von annähernd 20% bedeuten. Der Compiler ist aber auch nicht in der Lage, den Code für Altivec zu optimieren (Handarbeit ist angesagt).

Und jetzt kann man noch raten, wem Metroworks gehört:

Richtig - Motorola!
 
Zuletzt bearbeitet:
AltiVec

Motorola besitzt ja die Patente für die AltiVec genannte FPU.
Kann Apple dieses Patent aufkaufen? Motorola kann bestimmt Geld gebrauchen und Apple hat noch ein bißchen was in der Portokasse.
Oder kann IBM eine kompatible FPU bauen, ohne das Patent zu verletzen?
IBM verkauft ja "custom chips", also mit kundenspezifischen Anpassungen, z.B. an Nintendo (GameCube afaik) und könnte für Apple einen Power4 mit FPU(s) produzieren. Apple wäre zwar nur ein weiterer Kunde, aber dafür nicht der einzige. Ob ich zwei Prozessoren oder einen Vierfachprozessor in einen Rechner einbaue, das macht wohl keinen großen Unterschied in den Kosten.

Gruß
Jackintosh
 
Hallo allerseits

Habe auch gerade die Meldung bei Heise gelesen und dachte mir "geh' doch mal zu den macusern, mal schaun was die dazu sagen ..."

Also, ich für meinen Teil denke das kein Grund für ernste Sorgen angebracht ist: Das Prozessor-Versteckspiel zwischen Apple, Motorola und IBM besteht eigentlich schon seit den 68xxx-Zeiten. Ich erwarte keine Revolution diesbezüglich. Die Entwicklung wird - und muss - weitergehen.

Aber mal eine Frage: Ich arbeite z.Z. an einem G4 DP 800, also dem Top-Modell vom letzten Sommer. Die Kiste steht bei mir momentan *richtig* unter Dampf, und zwar:

- stehen stundenlange Videos zur DV-Digitalisierung mit FCP 3 an. Die resultierenden Videos sind so 10-12,5 GB groß;

- werden aus diesen +/- 60 Min Videos in minutenschnelle die Audio-Tracks extrahiert. Die resultierenden Dateien sind jeweils so zwischen 600-700 MB groß;

- werden die kompletten 60 Minuten Audio-Tracks in Peak DV mit Filtern etc. minutenschnell behandelt;

- rendert mir der Mac ein Crop-Frame ("Passepartout" zur Überdeckung unsauberer Video-Ränder) in weniger als 7 Minuten über eine ganze Stunde Video;

- erlaubt der Mac mit FCP 3 und ohne jegliche weitere Hardware sogar ein Vollbild-Overlay auf dem Computer-Monitor bei der Video-Digitalisierung ohne auch nur einen einzigen Framedrop zu erzeugen. So etwas war vor höchsten 3 Jahren nur mit zusätzlicher teurer AVID/Media100 Hardware machbar;

- erlaubt mir meine Haupt-Media-Disk (eine WD1200JB) ein superschnelles hin- und herkopieren dieser Watzmänner-Dateien (12,5 GB <= 5min !!!)

- etc. etc.

Ich habe in meiner doch schon etwas längeren Multimedia-Laufbahn noch nie so entspannt mit großen Lasten an einem Rechner gearbeitet wie an diesem Mac. Und die Kiste wird nicht mal laut oder heiß dabei. Abstürze finden unter OS X 10.1.5 praktisch nicht mehr statt. Der CPU-Monitor zeigt mir regelmäßig an, daß noch 15-20 % Reserve auf jedem Prozessor vorhanden ist.

Was macht ihr denn eigentlich für immense Rechen-Tasks mit euren Kisten, daß solche Kapazitäten nicht mehr ausreichen ? Ich weiß, ihr seid ein sehr jugendliches Publikum hier. Und Quake & Co fressen Ressourcen ohne Ende. Interessiert mich aber wirklich, ob jemand von euch mit einem aktuelleren Mac (ab Bj. 2000) schon mal an die Leistungsgrenzen seines Geräts gekommen ist, und womit ....
 
Leistungsgrenze erreicht?! Muß man relativ sehen. Dazu: Mit 38 bin ich wahrscheinlich nicht mehr als Jugendlich anzusehen.

Wo der Mac blaß aussieht? Meist im direkten Vergleich mit einem genausoschnell getakteten PC und handelsüblicher Software (aktuelle rühmliche Ausnahme - in Grenzen - Photoshop 7).

Beispiele: Erzeugen eines Projektors für CD-Rom (inkl. Videos und schön aufgelösten Bildern usw.) in Macromedia 8.5. Dauert auf einem 800er G4 (Single) Quicksilver fast doppelt so lange wie auf einem schon in die Jahre gekommenen AMD 500 MHz (noch kein Athlon).
Arbeiten in Photoshop:
Die Filterberechnungen sind auf dem Mac schon schneller, aber das Handling (Fenster verschieben, Zoomen, Bilddaten bewegen) fühlt sich (wir reden von den oberen Rechnern) beim PC oft flüssiger an.
USW.

Beispiele beziehen sich auf Mac OS 9 (inner Arbeit), privat seit über einem Jahr ausschließlich Mac OS X, zunehmend inner Arbeit auch (auf privatem Titanium). Bei OS 9 kommt halt erschwerend hinzu, das die Kiste während dessen unbenutzbar ist.
Es ist ja wohl auch niemandem entgangen, das Apple in der Videobearbeitung ihr Feld sehen und entsprechend investieren, was ich sehr begrüße.

Aber im Publishing-Bereich stellst du nicht so leicht um (ich dränge schon lange darauf, auf INDesign umzustellen, aber eine einzige Frage stoppt das vorerst: Wer belichtet uns das aus?

Natürlich liegt da auch vieles am Programm-Code (wenn Du meine Postings gelesen hast, wirst du feststellen, dass ich diesen Umstand gewürdigt habe).

Ich selber habe mit FCP noch nichts gemacht, es wäre aber auch allzu traurig, wenn Apple aus seiner Vorzeige-Applikation nicht das Optimum herausgeholt hätte (hat aber auch lange genug gedauert).

Es gibt für mich keine Alternative zum Mac (zumindest sehe ich sie nicht, sonst wäre ich nicht mehr hier), gerade deswegen hänge ich mich auch so rein (sonst könnte es mir echt am A**** vorbei gehen)

Grüße

Bodo
 
Moin
Ich bin zwar erst seit kurzem mit einem Mac unterwegs - aber trotz allem muß ich feststellen im Bereich der zuverlässigkeit kann der Windowsrechner NICHT mithalten.
Was den Athlon betrifft bin ich der Meinung,das Apple evt. keinen schlechten Schritt machen würde,wenn Sie es sich damit überlegen würden.
Ich habe vorher am 1.6Ghz Athlon gearbeitet,er ist gar nicht so laut wie manche vermuten.
Er läuft stabil und mit dem richtigen Lüfter ist er auch fast nicht zu hören.
Performenz ist ebenso reichlich vorhanden.
Eine zusammenarbeit zwischen Apple und AMD wäre unter dem Gesichtspunkt der -so hoch Gelobten- Ghz Zahlen gar nicht falsch.
Man muß halt sehen was einem lieber ist - MAC oder Dose - ????
Man darf auch nicht außer acht lassen ,mit welch einer Performenz der G5 auf dem Markt kommt.
600Mhz hören sich ja nicht viel an - aber wenn die Leistung stimmt sieht man darüber so oder so hinweg.
Also lassen wir uns mal überraschen was er wirklich kann.
In diesem Sinne


MAC macht Spaß
 
Hallo @Bierbauch,

Was heißt nur "600 MHz, wenn die Leistung stimmt, sieht man darüber hinweg"?

Die Taktzahl sagt rein gar nichts über die Leistungsfähigkeit aus. Von mir aus kann der auch mit 200 MHz rauskommen, wenn die Performance stimmt, und das "chasing the tail" ein Ende hat.

Prozessor-Designer/Ingenieure sehen in der ständigen Takterhöhung im Grunde nur eine Notlösung, um aus im Prinzip veralteten Konzepten immer mehr Leistung herauszuholen (vergleichbar etwa Ottomotor gegen Wasserstoffzellen).

Ganz nebenbei: Ich glaube fest daran, das es nicht gesund sein kann, direkt neben so einem im ultrahochfrequenzbereich strahlenden Teil zu sitzen (vielleicht sind PC-User deshalb so gestresst - sorry, konnte ich mir nicht verkneifen).

Die Evolution des Menschen schreitet halt langsamer voran als es in der Technik der Fall ist (höhere Zahlen bedeuten - muss besser sein - nur bei Schulnoten weiß jeder, dass es anders rum funktioniert:p
 
Eigenlich hast Du ja recht - PC USER SIND GESTRESST - UND WARUM?:(

Aber trotz allem darf man nicht außer acht lassen das viele - sehr viele!!!- auf die reinen Zahlen schauen.
Ich versuche jeden Tag den Leuten einwenig vom Mac zu erklären,auch wenn ich selber keine Leuchte bin auf dem Gebiet ,das man nicht nur auf die reinen Zahlen schauen soll aber es hat wenig Sinn .
Die Werbung tut ihr übriges - und einen reinen Vergleich wollen Sie nicht sehen.

Mit 600Mhz meinte ich auch nur "nur" .
Und Ultra verseucht sind wir so oder so ,ob wir wollen oder nicht.:p

Aber einen Vorteil haben die PC User dennoch :eek: Sie lernen,weil Sie müssen,auch mit der GRÖßTEN Plage am PC klar zu kommen. :eek:

!!!!!BITTE NICHT ÜBEL NEHMEN!!!!!

Ich habe mich ja nicht umsonst für´n Mac entschieden.
Es stimmt sogar noch alles beim ,, alten Mac".
Versuche Doch mal mit nem 300Mhz :rolleyes: 3-4 Programme auf W...s
laufen zu lassen.

In diesem Sinne


MAC macht Spaß
 
Hi zusammen,

wegen den ständigen Tacktzahlerhöhugen mache ich mir keinen Kopf den wieBodo schon meinte: solage die Performance stimmt ist die Tacktzahl egal, ok es geht halt (meistens) einher. ImGrunde genommen bin ich mit dem Cube zufrieden er hat zwar gerade mal 400Mhz aber er läuft trotzdem flüssig und wenn man die Speicherverwaltung richtig macht (OS 9.1) dann kann man auch mehrere Programme gleichzeitig laufen lassen.

Probleme gibt es halt nur wenn man rechenintensive arbeiten zu verrichten hat (Photoshop, ein 600MB eps durch den Distiller jagen, Cinema 4D etc)
dann ist man schon geneigt dem Mhz-Run nach zu jagen und Jobs für den Mhz-Myth zu verfluchen.

Aber machen wir uns nichts vor wir sind zu verwöhnt, wir haben zu Hause Rechner stehen von denen Highend-Anwender vor 3. Jahren geträumt haben.

Und dass, denke ich, sollte man sich mal öfter vor Augen führen.

greetz lost
 
Original geschrieben von lostreality


Aber machen wir uns nichts vor wir sind zu verwöhnt, wir haben zu Hause Rechner stehen von denen Highend-Anwender vor 3. Jahren geträumt haben.

Und dass, denke ich, sollte man sich mal öfter vor Augen führen.

greetz lost

... das ist genau die Bemerkung, die in meinem ersten Posting weiter vorne so leise mitschwingt ;-). Klar macht Speed Spaß, und in manchen Fällen ist er unverzichtbar. Und das Bessere ist sowieso der Feind des Guten, auch klar.

Zum Thema "Highend vor x Jahren": Ich habe meine ersten Erfahrungen im digitalen Vollbild-Vollsound-Vollbewegung NLE Videoschnitt auf einer Win NT Workstation gemacht. Das Gerät war für die damalige Zeit (ca. 1997) ein Renner: 200 MHz P1, 128 MB RAM, 2x9GB UW-SCSI, 21" Monitor, DatStreamer für Backup. Schnittsoftware "Speed Razor" von in:Sync, Videoboard von Perception. Kostenpreis für die Grundausstattung plus einem Betacam Recorder etwa 40 KiloMark.

Die Resultate dieser Workstation waren für damalige Zeit sehr gut, nur bringt mein G4 heute die gleichen Resultate für ein Viertel der Kosten. Die Win NT Maschine durfte so einmal pro Woche neu konfiguriert werden, weil mal wieder irgendwas zerschossen war. Der Mac läuft und läuft. Die Win NT Maschine war nach ca. 30 Minuten zugepumpt mit Daten (4 :1 Komprimierung war möglich; das ist etwas besser als DV). Der Mac packt mit zwei guten EIDE Platten glatte 13-14 Stunden Videomaterial.

Ich weiß von den 3D-Freaks, insbesondere solchen die mit Maya arbeiten, daß sie gar nicht genug MHz in den Prozessoren haben können. Aber was Video- und Audio-Editing angeht, scheint mir die Marke des noch Sinnvollen bezüglich der Leistungsfähigkeit der aktuellen Rechner bereits erreicht zu sein. Deshalb nochmals meine ernstgemeinte Frage: Was macht ihr mit noch mehr MHz, welche Tasks benötigen solche Leistungen ? Ist mir ehrlich z.Z. nicht klar.

Gruß
 
@ umberto
genau dass isses, auf den meisten Gebieten reicht die Power aus (Video, Audio, Web, Home) im Bereich Photoshop oder speziell 3d ist es noch ein laaaanger Weg bis zur "realtime-Bearbeitung" doch diese 2. Gebiete sind es auch die mich (in beruflicher Sicht)sagen lassen dass es mir ansich egal ist von wem der Prozi kommt solange die Performace nicht leidet.

Mein G3 233Mhz ist immer noch im Einsatz und erfreut sich bester Gesundheit, selbst mit Photoshop 6.0 arbeite ich auf dem Rechner, mit einschränkungen und Zeit alles kein Problem.

Man sollte Apple schon auf die Finger schauen und auch Kritik üben speziel was den HiEnd Bereich angeht aber im Allgemeinen bauen sie ausreichende und vor allem die schönsten Rechner der Welt:D

greetz lost
 
Mehr MHz

Du hasts doch selber gesagt...

Wenn Du 3D Grafiken erstellst, erstellt man öfter ein Preview. Es ist halt extrem nervig, wenn dieses 3-4 mal so lange dauert, wie bei dem Kollegen, der das Ganze auf nem Aldi PC macht, der DEUTLICH billiger war. Was interressiert mich da das Feeling ??!

Der Mac/PC ist halt ein Arbeitsgerät. Wenn ich 4000 Euro für z.B. nen Powerbook hinlege, die gleiche Arbeit allerdings schneller mit nem PC Notebook unter Windows erledigen kann, und dabei noch nicht mal die Hälfte ausgebe, ist das für mich O.K. Nicht die GEschwindigkeit eines Systems ist ausschlaggebend, sonder Preis/Leistung, und da sehen die Mac´s deutlich schlechter aus. Und die Mär von ewig kaputten WIndows durch Abstürze ist auch nicht mehr lange haltbar. Jede Version wird immer ein kleines Stück stabiler, wärend OS X noch in vielen Dingen erwachsen werden muss.
 
... und das stimmt mich traurig

gerade im 3d Bereich sieht es bei Apple nicht sonnig aus, ich überlege mir schon, nachdem ich mir einen neuen Mac hole oder den Cube von meiner Arbeitsstelle übernehme, einen PC zu holen um meine 3D-Geschichten zu rendern, es sei denn Apple kratzt die Kurve.

"...wenn dieses 3-4 mal so lange dauert, wie bei dem Kollegen, der das Ganze auf nem Aldi PC macht, der DEUTLICH billiger war. ..."

Das meint ich mit der Verfluchung des MHz-Myth.

greetz lost
 
Zurück
Oben Unten