Die Zukunft von macOS mit ARM-Prozessoren?!

Danke für die Info. Dann stellen wir hiermit einfach sämtliche Vergleiche ein und verlassen uns stattdessen einfach auf dein Bauchgefühl!

Warum so pampig? Ich habe gesagt für mich ist das entscheidend. Entscheidend ist, was hinten raus kommt, oder?
 
Warum so pampig? Ich habe gesagt für mich ist das entscheidend. Entscheidend ist, was hinten raus kommt, oder?
Genau richtig und das was bei Single-"Core" Benchmarks M1 vs den meisten x86 CPUs (einer Paradedisziplin der M1 SoCs) hinten rauskommt ist schlicht weder ein faires noch praxisrelevantes Ergebnis.
 
Verglichen wird sie dauern mit dem Base-Model - also der 5300.
Verflixt, da hatte ich mich vertan, hatte irgendwie die RX 5500 im Kopf, kann auch die RX 5300 gewesen sein.
Ich hab jetzt keinen Grund gesehen, warum ich die 5300 wegschmeissen sollte.
Würde ich auch nicht machen. Also nur den M1 wegen der Grafik kaufen...wobei, weniger Energie braucht er schon
Das spiegelt eigentlich ziemlich genau die Unterschiede in den Flops wider.
Öhm...nein, die 5300 hat doch nicht "nur" rund 2.6 TFlops, die liegt bei rund 4.6 TFlops, hat hier also deutlich mehr Power. Das zeigt sich aber in der Ausgabe nicht mal ansatzweise. Das ist ja das Interessante: Obwohl der M1 "nur" 2.6 TFlops hat liegt er auf dem Niveau der RX 5300. Ich hab hier leider noch die Vorgängergeneration, ne RX 570 (für meinen Hackintosh). Aber selbst hier zeigten sich in Games deutliche Unterschiede, der M1 hatte gut 2-3 mal mehr FPS in den Games als die RX 570. ;)
 
Falls Apple ablehnt, muss Apple sich auf abgekupferte Plagiate einstellen, die möglicherweise noch schneller sind.

Dann geht dieses ewige Hin- und Hergeklage aus der Apple vs. Samsung-Ära wieder los...

Öhm...nein, die 5300 hat doch nicht "nur" rund 2.6 TFlops, die liegt bei rund 4.6 TFlops, hat hier also deutlich mehr Power.

Für mich wirkt das wie der Vergleich eines Tesla mit einem lauten, stinkenden V8. Letzterer hat vielleicht ein paar PS mehr, aber wenn man beide fährt, dann bekommt man einfach das Gefühl dafür, dass hier gerade die Zukunft auf der einen und eine endende Ära auf der anderen Seite stehen...
 
Für mich wirkt das wie der Vergleich eines Tesla mit einem lauten, stinkenden V8. Letzterer hat vielleicht ein paar PS mehr, aber wenn man beide fährt, dann bekommt man einfach das Gefühl dafür, dass hier gerade die Zukunft auf der einen und eine endende Ära auf der anderen Seite stehen...
puh, das halte ich ehrlich gesagt für eine ziemlich überzogene These bzgl. des M1. Auch ich denke, dass er nicht den GPU-Markt umkrempeln wird Um bei deinem Autovergleich zu bleiben: Es wäre wohl einer ein Vergleich Renault Zoe vs. V8 ;)
 
puh, das halte ich ehrlich gesagt für eine ziemlich überzogene These bzgl. des M1. Auch ich denke, dass er nicht den GPU-Markt umkrempeln wird

Ich denke das schon. Warum sollte jemand noch ein Notebook haben wollen, welches maximal die halbe Akkulaufzeit bietet, dabei laut und heiß wird und leistungstechnisch trotzdem hinterherhinkt. Ich denke mit dem M1 und insbesondere dem SOC-Prinzip ändern sich grundlegende Paradigmen der Consumer-IT. Die Tränen dieses Typen auf Youtube, der sieht, dass sein 15.000 $-Mac Pro gerade in Sachen ruckelfreiem Videoschnitt von einem Macbook Air vorgeführt wird, waren zumindest echt.
 
In Bezug auf den Notebookmarkt: ja, da denke ich auch, dass sich was tun wird wegen dem M1. Aber es ging ja grad um seine GPU-Eigenschaft und da wird er IMO nichts nennenswert ändern. Ner RTX1080 und co kann er noch lange nicht das Wasser reichen ;)
 
Der Renault Zoe kann dem alten Diesel auch nicht unbedingt das Wasser reichen - und trotzdem ist es höchstwahrscheinlich, dass es nur noch eine der beiden Technologien in der Welt unserer Kinder geben wird. Ich bleibe dabei: der M1 mag für sich genommen kein Wunder-Chip sein - aber sein Prinzip steht für eine Herangehensweise, die die heißen, stromhungrigen Chips der Konkurrenz immediately veralten lässt - Relikte aus einer PC-Ära, in der man Unmengen an Strom und Abwärme brauchte um Leistung zu erzeugen.
 
Man wird sicher nicht geringen Stromverbrauch gegen Rechenpower/Grafikpower eintauschen. Ist bei deinem Autovergleich ähnlich: Hätten die EAutos nur die Power eines 50PS Wagens wären sie sicher keine Konkurrenz für die Verbrenner ;)
 
Hätten die EAutos nur die Power eines 50PS Wagens wären sie sicher keine Konkurrenz für die Verbrenner ;)

eben. Hatten sie ja ewig, da hat sie keiner beachtet. Genau wie die ARM-Chips. Der M1 ist der erste, der gleichauf mit x86 liegt - und nur ein Viertel der Energie verbraucht. Warte mal 5 Jahre, dann sieht das schon anders aus. ARM hat seit 10 Jahren konstante Leistungszuwächse, während x86 am Ende ist.
 
Relikte aus einer PC-Ära, in der man Unmengen an Strom und Abwärme brauchte um Leistung zu erzeugen.
Die Speerspitze der Chips wird IMMER auf die maximal abführbare Leistung ausgelegt sein. Wenn sich durch große Effizienzgewinne damit große Leistungssprünge ergeben, wachsen eben die Möglichkeiten (und damit die zukünftigen Anforderungen) in gleichem Maße. Was möglich ist wird auch gemacht.

Das war immer so, ist aktuell so, und ich sehe nicht warum sich das ändern sollte.

Und ein Faktor vier in der Effizienz ist wenn überhaupt bei speziellen Tasks, die durch die etlichen Koprozessoren im M1 abgedeckt werden können, irgendwie realistisch.
 
Öhm...nein, die 5300 hat doch nicht "nur" rund 2.6 TFlops, die liegt bei rund 4.6 TFlops, hat hier also deutlich mehr Power. Das zeigt sich aber in der Ausgabe nicht mal ansatzweise. Das ist ja das Interessante: Obwohl der M1 "nur" 2.6 TFlops hat liegt er auf dem Niveau der RX 5300. Ich hab hier leider noch die Vorgängergeneration, ne RX 570 (für meinen Hackintosh). Aber selbst hier zeigten sich in Games deutliche Unterschiede, der M1 hatte gut 2-3 mal mehr FPS in den Games als die RX 570. ;)

Boah es wird echt Zeit, dass Apple die 16GB-M1-Chips mal zusammen gelötet kriegt, damit ich an dem bestellten MBP endlich mal rumspielen kann. :iD:
Hatte zwar schon das M1-MBA von meinem Vater mal in den Fingern, aber da wollte ich nicht direkt meine halbe Steam-Library draufknallen. :hehehe:

Hab nach wievor etwas den Eindruck, dass deine Games den M1 sehr bevorzugen, bzw. auf der AMD extrem schlecht performen. Zumindest passen die Verhältnisse nicht wirklich zu den bislang publizierten Benchmarks:

https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested/3
https://www.notebookcheck.net/Apple-M1-GPU-GPU-Benchmarks-and-Specs.503610.0.html

Da sortiert sich der M1 eher etwas über der RX 560X ein, bei den Nvidias so GTX 1050-Niveau... (was dann auch wieder zu der Rohleistung von 2,6 TFLOPS passt).
Bei den neueren Navi-GPUs ist auch noch zu beachten, dass die Apple-Treiber (mal wieder) ziemliche Grütze sind, die selbe Karte läuft in Win10 Kreise um ihr Mac-Äquivalent.
 
der M1 mag für sich genommen kein Wunder-Chip sein - aber sein Prinzip steht für eine Herangehensweise, die die heißen, stromhungrigen Chips der Konkurrenz immediately veralten lässt - Relikte aus einer PC-Ära, in der man Unmengen an Strom und Abwärme brauchte um Leistung zu erzeugen.

Ich hatte das vorher auch schon einmal, wenn auch nicht so eloquent, geschrieben. Ich kann mir, als wirklich vollkommen unbedarfter, durchaus vorstellen, dass das Prinzip hinter dem M1 durchaus einen Paradigmenwechsel, der weiter reichende Auswirkungen hat, darstellt. Das Apple in der Lage ist grosse Wellen zu schlagen haben sie unter anderem beim iPhone gezeigt, dass ungefragt die Branche umgekrempelt hat.

Man sollte nur nicht automatisch davon ausgehen, das sich dies in den Verkaufszahlen von Macs ähnlich wiederspiegeln wird wie damals beim iPhone. Ich sage wohlgemerkt nicht, dass Apple davon nicht profitieren wird, aber die Menschen und Firmen sind in ihre Plattformen beim Computer, dabei vor allem Windows, tiefer verwurzelt als sie es damals bei den Telefonen waren. Und dann zählt bei vielen nach wie vor der Preis. Meine Frau etwa würde sich so ein MacBook Air ansehen, über die Akkulaufzeit und die Power staunen und dann trotzdem beschließen, dass es das halb so teure Windowsnotebook für ihre Zwecke auch tut. Die selbe Überlegung wird die IT in meiner Arbeit haben.

Manche überschwängliche Lobrede hier ist in sich vollkommen logisch, aber trotzdem in einer Blase. Das heißt aber natürlich nicht, dass mittel- bis langfristig in diesem Systemen nicht auch ARM Chips arbeiten werden. Ich weiss es nicht und im Endeffekt ist es mir auch relativ egal.
 
Öhm...nein, die 5300 hat doch nicht "nur" rund 2.6 TFlops, die liegt bei rund 4.6 TFlops
Also entweder vertust dich jetzt zum zweiten Mal, oder ... die 5300M hat in meiner Welt 3.2 TFlops. Und sie liegt in den GPU-Tasks immer ein Stück vor dem M1 mit seinen 2.6 TFlops. Ich weiß ja nicht - aber eben genau diesen "Vorsprung" der 3.2 auf 2.6 sehe ICH zumindest in den Vergleichen wieder ... Der M1 ist nicht auf dem Niveau - er ist drunter. Wenn auch nicht die Welt. Aber er machts halt mit weniger Energie :noplan:

Mag für manche sicherlich ausschlaggebend sein, ich bin bspw. keiner der Unterwegs Videos schneidet.
Deswegen sehe ich für meinen Anwendungsfall auch keinen Grund, vom 16er weg auf ein M1-Gerät zu wechseln.
 
Mag für manche sicherlich ausschlaggebend sein, ich bin bspw. keiner der Unterwegs Videos schneidet.
Deswegen sehe ich für meinen Anwendungsfall auch keinen Grund, vom 16er weg auf ein M1-Gerät zu wechseln.
Aber es ist durchaus ein Argument. Besonders auf Akku nervt es, wenn irgendwas die dGPU will und das Ding mal eben mit >60W die Lüfter auf Vollast drehen und den Akku in Maximimalgeschwindigkeit leersaugt. Ich spiele nicht sooo viel. Wenn, dann ist es meist Civ6. Und was das Spiel an Leistung frisst ist unfassbar. Das Gesamtsystem liegt dann dauerhaft bei 100W, was den Akku trotz Netzteil leert.

Civ6 performt allgemein sehr schlecht. Hat jemand schonmal geschaut, wie es auf einem M1 läuft? Ist es darauf auch so absturzfreudig? Im normalen Darstellungsmodus bekommt man nach ein paar Runden grafische Fehler und kurz danach friert der gesamte Rechner ein. Verhindern kann man es, indem man das Spiel schnell abschiesst und man dann sofort die Bildschirmauflösung ändert. Dann ist der Spuk vorbei. Wenn man im Übersichtsplan spielt, kann man deutlich mehr Runden spielen, bis das Spiel sich spontan beendet.

Ich hätte gerne ein M1-MBP16. Dann brauche ich kein gfxCardStatus mehr, um das System auf die iGPU festzunageln :)
 
Ich denke, in der Diskussion vermischen sich gerade verschiedene Ebenen und Sichtweisen:
  • Ist ein Macbook mit M1 als reines Produkt gerade eine Verbesserung zu meinem vorhandenen Macbook mit intel-Chip?

  • Ist der M1 als "erster seiner Art" ein Vorgeschmack auf weitere Produkte mit massiven Leistungssteigerungen in den kommenden Monaten / Jahren?

  • Ist ARM als CPU ein Gamechanger? Wird sich die IT-Branche umkrempeln?
Die Beantwortung der ersten Frage ist höchst subjektiv. Habe ich gerade 2.000+ € für einen intel-Mac ausgegeben, dann finde ich jetzt natürlich gute Gründe, warum der aktuell völlig ausreichend ist. Sitze ich gerade an einem Mac, der völlig lautlos 4K-Videos rendert, dabei lauwarm wird und nach einem Arbeitstag immer noch über 50% der Akkukapazität hat, dann finde ich leicht Gründe, warum ich nie wieder zurück will.

Die anderen Punkte sind derzeit schwer zu prognostizieren. ARM hat in deutlich kürzerer Zeit - seit ca. 2010 - aufgeholt und bietet nun eine Leistung, die selbst gut ausgestattete intel-Macs schlägt. Wenn die Steigerungsraten von x86 und ARM in den kommenden Jahren so weitergehen, dürfte die Schere deutlich auseinandergehen. Energieeffizienz ist insbesondere bei Mobilgeräten ein sehr starkes Verkaufsargument - zumal 90% der Nutzer eines Macbooks selbst einen Core i3 selten am Limit fahren. Allerding kann auch die Entwicklung von Desktop-Workstations maßgeblich davon profitieren: bisher wurden High End-Systeme wie der aktuelle Mac Pro quasi um eine möglichst leistungsstarke Kühlung herum gebaut - entfällt dies, ist Platz im Design für völlig neue Ansätze von Multicore- oder sogar Multi-CPU-Maschinen im Schreibtischformat.



Schon der Mac Mini mit M1 schlägt sich nicht schlecht als Arbeitsgerät - man bedenke den immensen Preisunterschied. Ich bin gespannt was da noch kommt!
 
  • Gefällt mir
Reaktionen: Scum und Ralph S.
ARM hat seit 10 Jahren konstante Leistungszuwächse, während x86 am Ende ist
x86 hatte man schon vor 16 Jahren das Ende zugestanden als ich zum Mac gewechselt war. Ich denke, x86 wird auch in 15 Jahren noch am Start sein ;)
Also entweder vertust dich jetzt zum zweiten Mal, oder ... die 5300M hat in meiner Welt 3.2 TFlops.
Ob es jetzt die 5500 oder 5300 war...ich muss da noch mal schaun. Auf jeden Fall aber war es die Desktop-Version und nicht die Mobile und die Desktopversion der 5300 hat 4,6 TFlops, die 5500 hat ca. 5.2 TFlops. Aber nochmal: Ich hab die Grafikleistung der RX570 (Desktopversion, 4.8 TFlops) gegen den M1 antreten lassen und der M1 hat in den Spielen, die ich so hab, die RX570 schlicht verblasen (Tomb Raider, World of Tank, World of Warcraft, Beyond a Steel Sky usw). Deshalb sagte ich oben ja: TFlops eignen sich nur bedingt, eigenlich nur innerhalb einer GPU-Generation, als Vergleichsbasis.
 
Zurück
Oben Unten