Die Zukunft von macOS mit ARM-Prozessoren?!

Ich meinte ja nichtmal 2 GPUs. Ich meinte, wie wollen die in einen ARMler min. die Power von den genannten GPUs reinpferchen ;)
Und dann auch noch entsprechend kühlen...
Wahrscheinlich wird der Chip so ein Riesen-Teil, der 1/4 des Mainboards belegt :hum:
Schaun wir mal: Der aktuelle M1 Prozessor lässt in vielen Belangen die Intel-CPU im Regen stehen und hat auch noch den RAM-Speicher an Bord und dabei ist das Package des M1 nicht mal doppelt so groß wie eine Intel-CPU und verbrät ca. ein Viertel der Leistung, die eine Intel-CPU verheizt…wie kommst du jetzt genau darauf, dass es bei einer äquivalenten GPU anders wäre? ;)
 
  • Gefällt mir
Reaktionen: Tealk und Ken Guru
Kennt jemand Zahlen welchen Anteil der M1 iMac/Mini am Desktop Markt und der M1 MB/MBA am Notebook Markt hat?
 
Schaun wir mal: Der aktuelle M1 Prozessor lässt in vielen Belangen die Intel-CPU im Regen stehen und hat auch noch den RAM-Speicher an Bord und dabei ist das Package des M1 nicht mal doppelt so groß wie eine Intel-CPU und verbrät ca. ein Viertel der Leistung, die eine Intel-CPU verheizt…wie kommst du jetzt genau darauf, dass es bei einer äquivalenten GPU anders wäre? ;)

Ich glaube nicht, dass im (High End)-Grafikbereich ähnliche Vorteile erzielt werden können, wie durch den Wechsel von X86 auf ARM.
 
  • Gefällt mir
Reaktionen: Ken Guru
Kennt jemand Zahlen welchen Anteil der M1 iMac/Mini am Desktop Markt und der M1 MB/MBA am Notebook Markt hat?

Da Apple mit macOS immer so rund 10% Marktanteil hat und noch viele mit Intel-Macs unterwegs sind, schätze ich mal so 1-3%
 
Bei den High-End Rechnern ist der Lebenszyklus einfach entsprechend länger (Selbst im CERN laufen noch Rechner mit PPC…), auch weil in der Regel teure Peripherie dran hängt, dennoch bieten ARM (=Risc, bzw. reduzierter Befehlssatz und geringere Größe) einfach sehr viel mehr Möglichkeiten zur Anpassung, zur Steigerung der Effizienz, Prozessorgröße etc. als die Standard Intel CPUs, sie werden folglich auch den High-Endbereich übernehmen. Smarthphones z.B. wären ohne ARM kaum noch denkbar, dennoch erreichen iPhone und Co ein hundertfaches der Rechenleistung der ersten Mondlandungscomputer (on-Board wie auch im Rechenzentrum!).

Die Hochleistungsrechner (Cray und Co) zeigen in welche Richtung es geht > Parallelisierung und die ist mit ARMs einfach viel unkomplizierter zu bewerkstelligen, die Miniaturisierung tut ihr übriges. Also: sowohl CPUs wie auch GPUs werden in nächster Zukunft auf diese Technik setzen und eine Grafik die hochparalellisiert ihre Aufgabe erledigt wird sich durchsetzen - Apple hat reichlich Vorerfahrung durch Phones, watch, ipads und jetzt auch durch die Entwicklung der M1 Rechner.

Eins ist sicher: die Entwicklung wird niemals stehen bleiben, die kleinsten Geräte sind die Vorbereiter, die Entwicklung der höheren parallel arbeitenden Systeme erfordert noch ein wenig Hirnschmalz in der Softwareentwicklung, aber so richtig spannend wird es ab 2022/2023. Die kleinen M1 Rechner zeigen ja, dass die "Post" ganz schön abgeht
 
Die Grafikkarten sind heute schon hochparallelisiert. Die 3080 Ti hat mehr als 10.000 CUDA Cores.
 
Ich glaube nicht, dass im (High End)-Grafikbereich ähnliche Vorteile erzielt werden können, wie durch den Wechsel von X86 auf ARM.
Man glaubte auch schon nicht bei der Ankündigung des Wechsels von Intel zu M1 dass der M1 die Intel-CPUs so dermaßen im Regen stehen lassen würde. Daher würde ich es nicht so kategorisch ausschließen ;)
 
Man glaubte auch schon nicht bei der Ankündigung des Wechsels von Intel zu M1 dass der M1 die Intel-CPUs so dermaßen im Regen stehen lassen würde. Daher würde ich es nicht so kategorisch ausschließen ;)
Bei dem Vergleich darf man imho nicht außer acht lassen, daß Apple durch die 5nm Fertigung bei TSMC gegenüber Intel einen großen Prozessvorteil hat.
Intel hat die letzen Jahre massive Probleme bei der Fertigung.
--> https://www.heise.de/news/Intel-lagert-erstmals-Produktion-hochwertiger-CPU-aus-5023627.html

Wenn man dem 5nm M1 einer modernen 7nm Ryzen-APU gegenüberstellt, schaut er Leistungstechnisch nicht mehr so überlegen aus.
--> https://technical.city/de/cpu/Apple-M1-vs-Ryzen-9-5980HS
--> https://www.notebookcheck.net/M1-vs-R7-4800HS-vs-R7-4800U_12937_11689_11681.247596.0.html

Der M1 ist keine Wunder-CPU, lediglich ein sehr guter Prozessor, der als Alleinstellungsmerkmal zu anderen CPUs aktuell auf dem modernsten Fertigungsprozess produziert wird.

Im GPU-Bereich wird Apple da nicht zaubern können, wenn man sich den Transistorcount, die DIE-Größen und Stromverbräuche dedizierter GPUs anschaut.

Nvidia GA102 | 8 nm | 28,3 Mrd. Transistoren | 628 mm²
(335W auf einer GeForce 3090)

AMD Navi 21 | 7nm | 26,8 Mrd. Transistoren | 519,8 mm²
(300W Radeon RX 6900 XT)

Der M1 hat ca. 16 Mrd. Transistoren für CPU/GPU und IO auf einem 119nm² DIE und ist hochoptimiert auf niedrigen Energieverbrauch.
--> https://en.wikichip.org/wiki/apple/mx/m1
Auch Apple kann die Physik nicht überlisten.
:(
 
  • Gefällt mir
Reaktionen: Madcat, maba_de und Moriarty
Bisher
So wie hier dauernd über das mystische Wunderding M1 gesprochen wird, hätt ich das jetzt schon erwartet :hehehe:

Ich glaube, nach dem anfänglichen Hype eines Teils der IT-Welt im letzten Winter ist heute klarer, wie der M1 einzuordnen ist. Der Vergleich mit intel wird ja auch mit fortschreitender Zeit immer unfairer, weil man ihn ja im Apple-Universum durchführen muss und die verbliebenen intels dort werden immer älter.

Ich glaube schon, dass die Branche "wachgerüttelt" wurde durch Apple Silicon und dass die aktuelle Generation 11 der intel-CPUs schon ganz gut zeigt, was auch intel kann wenn sie wollen. Sie haben halt aufzuholen. Und aktuelle Ryzens beweisen wirklich ganz gut, dass der M1 kein "Wunderding" ist, sondern dass zeitgemäße CPUs auch auf x86-Basis existieren können.
 
Dazu sollte man auch noch erwähnen, daß der M1 einen großen Vorteil gegenüber anderen CPUs/GPUs/SoCs hat.
Dadurch das Apple sowohl die Hardware, als auch die Software fertigt, können sie "relativ einfach" neue Hardwarefeatures" in Software nutzbar machen.

Andere heterogene Hard-/Software Umgebungen bewegen sich da oftmals auf dem kleinsten gemeinsamen Nenner.
(Offene) Standards Herstellerübergreifend in Hardware zu etablieren und anschließend in Software für dritte verfügbar zu machen, ist inhärent langsamer als Apples Modell.

Das dürfte (speziell im Bereich Videobearbeitung) auch ein Grund sein, warum der M1 als "gefühlt sehr flott" wahrgenommen wird.
 
Reine Rechenleitung kann man toppen. Klar.
Aber hey, Der M1 ist jetzt schon pi mal Daumen ein Jahr alt...
Und er ist ein verdammtes Effizienzwunder.

Da kommen die anderen einfach noch nicht hinterher.
Nächsten Sommer/Herbst erwarte ich Prozessoren die im Gesamtpaket in etwa gleichziehen.

Da hat Apple aber vermutlich schon den M3 draussen.
 
  • Gefällt mir
Reaktionen: mh2019
Reine Rechenleitung kann man toppen. Klar.
Aber hey, Der M1 ist jetzt schon pi mal Daumen ein Jahr alt...
Und er ist ein verdammtes Effizienzwunder.

Da kommen die anderen einfach noch nicht hinterher.
Nächsten Sommer/Herbst erwarte ich Prozessoren die im Gesamtpaket in etwa gleichziehen.

Da hat Apple aber vermutlich schon den M3 draussen.

Außer Apple hat ja niemand dieses Gesamtpaket. Daran wird eine Vergleichbarkeit schon scheitern.
 
JahrBezeichnungCPU-Kerne gesamtP-KerneE-KerneGPU-Kerne (reduziert über Binning)RAMThunderbolt/USB-4-Ports
Ende 2021M2106412 (8)16 GB, 32 GB4
Anfang 2022M2X1612424 (16)16 GB, 32 GB4
Ende 2022M3128416 (12)32 GB, 64 GB4
Anfang 2023M3X (M Pro)32320bis 128 (diskret)bis 2 TB (via Bus)6
 
JahrBezeichnungCPU-Kerne gesamtP-KerneE-KerneGPU-Kerne (reduziert über Binning)RAMThunderbolt/USB-4-Ports
Ende 2021M2106412 (8)16 GB, 32 GB4
Anfang 2022M2X1612424 (16)16 GB, 32 GB4
Ende 2022M3128416 (12)32 GB, 64 GB4
Anfang 2023M3X (M Pro)32320bis 128 (diskret)bis 2 TB (via Bus)6

Was soll das sein? Ein Eimer Kaffeesatz?
 
Was soll das sein? Ein Eimer Kaffeesatz?
Vielleicht die offizielle Roadmap von Apple, die ein Mitarbeiter in einem kleinen Café in Bad Mergentheim auf dem Tisch hat liegenlassen und die nun den Weg ins Macuser-Forum gefunden hat? Und die, wenn sie die Runde macht, eine neue Ära einläutet, in der Unternehmen endlich planen können wenn sie Macs einsetzen?
 
  • Gefällt mir
Reaktionen: picknicker1971 und Leslie
Was soll das sein? Ein Eimer Kaffeesatz?

Kaffeesatz ist guter Dünger!

Auf der anderen Seite kann man sich spaßeshalber Fragen, was wäre wenn diese hypothetische "Roadmap" stimmen würde?
Wenn ich akut wirklich massiv Rechenleitung benötige, muß ich nicht auf einem hypothetischen M2/3(X) warten.
Das kann ich auch alles jetzt schon kaufen:
--> https://geizhals.de/?cat=cpuamdam4&xf=14840_12~2_7nm~590_boxed~590_boxed+ohne+K%FChler&asuch=&bpmin=&bpmax=&v=l&hloc=de&plz=&dist=&bl1_id=30&sort=r#productlist

Die professionellen Anwender, die noch an macOS als Plattform hängen, dürften sehr selten geworden seien.
Die Meisten davon hat man vermutlich mit Einstellung der XServe (2011)/MacPro 5.1 (2013) nachhaltig vergrault.

Das sind maximal Nischen/Leuchttürme/Prestigeobjekte die ein solch hypothetischer M3X besetzen würde.
Das Gro der Anwender wird im Alltag keinen Unterschied zwischen M1 & dem hypothetischen M2/M3 erleben.

Wenn man mal das Forum nach konkreten Performanceproblemen durchforstet, wird man imho feststellen
-> das betrifft primär User mit Basiskonfigs = FD/HDD Setups (MacMini/iMac),
-> sekundär User mit wenig RAM (=< 8GB) und
-> tertiär User die zocken wollen/GPU-Leistung brauchen (dafür ist ein Mac einfach die falsche Plattform)...
 
Der M1 hat ca. 16 Mrd. Transistoren für CPU/GPU und IO auf einem 119nm² DIE und ist hochoptimiert auf niedrigen Energieverbrauch.
--> https://en.wikichip.org/wiki/apple/mx/m1
Auch Apple kann die Physik nicht überlisten.
Oh, das sehe ich ähnlich. Aber schaun wir uns mal kurz an: Der M1 hat 16 Milliarden Transistoren und verbrät rund 30W bei Volllast (wieviel hat der i5 10400? 1.4 Milliarden? Und der kann dem M1 kaum das Wasser reichen, verbrät aber 65W ;)). Wir können also davon ausgehen, dass bei rund 30 Milliarden Transistoren (die Größenordnung aktueller TOP-GPUs) dann rund 60W verheizt werden würde. Und wie schätzt du eine RX 580 ein oder eine GTX 1080? Je nach verwendeter Technologie kann hier schon der M1 sehr gut mit diesen GPUs mithalten und dabei ist der M1 nicht mal für Grafik optimiert. Diese Beobachtungen bringen mich dazu zu sagen, dass ein M1-GPU-Äquivalent durchaus mit High-End-GPUs konkurrieren kann. ABER, ganz klar, das ist auch ganz viel Glaskugel-Lesen. Nur ausschließen würde ich es halt auch nicht so kategorisch, wer von uns bitte schön hat denn vor einem Jahr gedacht, dass der M1 auch nur annähernd so stark sein würde, dass er die Intel-CPUs so dermaßen verbläst? Da kann ich mich an niemanden erinnern. Daher Ausschließen, dass Apple auch eine GPU bringen kann, die den High-End-GPUs das fürchten lehrt, werde ich inzwischen sicher nicht.
PS: Und von wegen 5nm Technologie, weil man darauf immer so gern rum reitet: Das Herstellen ist die eine Seite der Medaille (das macht TSMC für Apple), die andere ist aber das Design und das macht man auch nicht mal eben so. Und sowas ist auch ne Ansage, Apple ist jetzt nicht grade als der Halbleiterhersteller bekannt, im Gegensatz zu Intel. Ich arbeite in der Halbleiterfertigung und kenne Intel nicht nur von den CPUs her, die sind in Sachen Halbleiterfertigung in der Champions League. Intel so dermaßen vorzuführen in der Halbleiterfertigung...das ist kein Zufallstreffer, da muss Know How mit ran und Können auf höchster Ebene. Das ist ähnlich wie die Sache mit Tesla.
 
Oh, das sehe ich ähnlich. Aber schaun wir uns mal kurz an: Der M1 hat 16 Milliarden Transistoren und verbrät rund 30W bei Volllast (wieviel hat der i5 10400? 1.4 Milliarden? Und der kann dem M1 kaum das Wasser reichen, verbrät aber 65W ;)). Wir können also davon ausgehen, dass bei rund 30 Milliarden Transistoren (die Größenordnung aktueller TOP-GPUs) dann rund 60W verheizt werden würde. Und wie schätzt du eine RX 580 ein oder eine GTX 1080? Je nach verwendeter Technologie kann hier schon der M1 sehr gut mit diesen GPUs mithalten und dabei ist der M1 nicht mal für Grafik optimiert. Diese Beobachtungen bringen mich dazu zu sagen, dass ein M1-GPU-Äquivalent durchaus mit High-End-GPUs konkurrieren kann. ABER, ganz klar, das ist auch ganz viel Glaskugel-Lesen. Nur ausschließen würde ich es halt auch nicht so kategorisch, wer von uns bitte schön hat denn vor einem Jahr gedacht, dass der M1 auch nur annähernd so stark sein würde, dass er die Intel-CPUs so dermaßen verbläst? Da kann ich mich an niemanden erinnern. Daher Ausschließen, dass Apple auch eine GPU bringen kann, die den High-End-GPUs das fürchten lehrt, werde ich inzwischen sicher nicht.
PS: Und von wegen 5nm Technologie, weil man darauf immer so gern rum reitet: Das Herstellen ist die eine Seite der Medaille (das macht TSMC für Apple), die andere ist aber das Design und das macht man auch nicht mal eben so. Und sowas ist auch ne Ansage, Apple ist jetzt nicht grade als der Halbleiterhersteller bekannt, im Gegensatz zu Intel. Ich arbeite in der Halbleiterfertigung und kenne Intel nicht nur von den CPUs her, die sind in Sachen Halbleiterfertigung in der Champions League. Intel so dermaßen vorzuführen in der Halbleiterfertigung...das ist kein Zufallstreffer, da muss Know How mit ran und Können auf höchster Ebene. Das ist ähnlich wie die Sache mit Tesla.

Der M1 verbläst Intel CPUs in extra für den M1 optimierter Software. Ich gehe davon aus, dass hypothetische GPUs von Apple dann in Metal entsprechend gut abschneiden werden.

Ob das die Branche umkrempelt, sei dahingestellt, denn genauso wie der Markt für CPUs kaum groß von Final Cut oder Logic abhängt, wird der GPU-Markt weiterhin eher auf DirectX oder Cuda schauen, statt auf Metal.

Ein halbes Jahr nach der „M1-Revolution“ stehen die Elektronikgeschäfte nach wie vor voll mit Intel-Notebooks und auch die Verkaufscharts von Notebooksbilliger und anderen Großen zeigen eigentlich nur Geräte mit Ryzen oder Intel Gen 11. Dafür, dass x86 totgesagt war, blüht es gerade heftig auf.

Genauso bei Grafikkarten. RTX, Raytracing und GeForce bestimmen nach wie vor alle Diskussionen.
 
Zurück
Oben Unten