Die Zukunft von macOS mit ARM-Prozessoren?!

Naja, dass Apple im Businessbereich keine große Rolle spielt, ist nicht von der Hand zu weisen...

Nicht von der Hand zu weisen ist aber auch, dass Apple im Business-Bereich noch nie so einen hohen Marktanteil hatte wie heute. Bei Google und Facebook laufen heute die meisten Entwickler mit Macs rum und in x kleineren Unternehmen mit nur ein paar hundert oder wenigen Tausend Mitarbeitern (auch hier in Europa) nutzen heute Berater und Manager Apple-Laptops, wo vor einigen Jahren noch mit ziemlicher Sicherheit ein EliteBook, Latitude oder ThinkPad bestellt worden wäre.
 
Naja, dass Apple im Businessbereich keine große Rolle spielt, ist nicht von der Hand zu weisen...

Nicht von der Hand zu weisen ist aber auch, dass Apple im Business-Bereich noch nie so einen hohen Marktanteil hatte wie heute. Bei Google und Facebook laufen heute die meisten Entwickler mit Macs rum

Es stimmt ja beides: In vielen Unternehmen laufen heute Leute mit nem Mac (oder iPad) rum.
Es stimmt aber auch, dass Endgeräte
für den Businessbereich der unwichtigste, austauschbarste Faktor sind. Für das relevante Businessgeschäft hat Apple keine Produkte (und kein Interesse daran, den letzten Server haben sie vor Jahren eingestellt)
 
Das einzige was mich interessieren würde, ob man auf den Macs mit ARM RISC OS laufen lassen könnte.
 
Das einzige was mich interessieren würde, ob man auf den Macs mit ARM RISC OS laufen lassen könnte.
Weder das Booten von anderen Betriebssystemen im Allgemeinen noch Boot Camp im Speziellen wurden auf der Keynote erwähnt.
Ich würde daher nicht davon ausgehen, dass das möglich ist, außer eine virtuelle Maschine fällt für dich auch unter "laufen lassen"
 
So wie ich die Zusagen auf der WWCD interpretiere, wird es bei den ARM-Macs erstmal keine diskreten Grafikchips geben.
Das gilt höchstens für low power Geräte. Im Code von macOS 11 wurden bereits Hinweise auf AMD RDNA3 Grafikkarten gefunden (derzeit sind maximal RDNA1 Modelle erhältlich, RDNA2 kommt mit PS5 und XB X sowie entsprechenden standalone Grafikkarten später dieses Jahr).
https://www.pcgameshardware.de/Graf...n-macOS-11-Code-Big-Navi-und-Navi-31-1353104/

Update hierzu:
Apple (...) auf ARM umstellt, um macOS und iOS mittelfristig so weit wie möglich zu verschmelzen.
die Frage ist, wie sehr sich das was heute ein iPad Pro einerseits bzw. (ehem.) Macbook 12"/Macbook Air andererseits ist, in 5 Jahren noch unterscheiden wird.
Ein Notebookcheck-Autor spekuliert ähnlich: https://www.notebookcheck.com/Das-u...rmat-Indizien-gibt-es-so-einige.477279.0.html
 
  • Gefällt mir
Reaktionen: chris25
Das gilt höchstens für low power Geräte. Im Code von macOS 11 wurden bereits Hinweise auf AMD RDNA3 Grafikkarten gefunden (derzeit sind maximal RDNA Modelle erhältlich, RDNA2 kommt mit PS5 und XB X sowie entsprechenden standalone Grafikkarten später dieses Jahr.
https://www.pcgameshardware.de/Graf...n-macOS-11-Code-Big-Navi-und-Navi-31-1353104/

Die können aber auch für Intel Macs sein, oder? In den WWDC-Talks wurde nämlich mehrfach auf die Vorteile der ARM-Architektur hingewiesen (z.B. Zugriff auf den gleichen Arbeitsspeicher).
 
Prinzipiell schon, aber da RDNA2 Ende 2020 kommt, kommt RDNA3 nicht vor Ende 2021, also allerfrühestens 6 Monate, bevor der ARM-Umstieg abgeschlossen sein soll. Ob Apple dann noch neue Intel-basierte Hardware bringt?
 
  • Gefällt mir
Reaktionen: chris25
Die können aber auch für Intel Macs sein, oder? In den WWDC-Talks wurde nämlich mehrfach auf die Vorteile der ARM-Architektur hingewiesen (z.B. Zugriff auf den gleichen Arbeitsspeicher).
Interessant. Shared Memory zwischen GPU und CPU ist Neuerdings also ein Vorteil.
Eigentlich profitieren GPUs doch von superschnellem Grafikspeicher, der sich nicht auch noch die ohnehin schon schmale bandbreite mit der CPU teilen muss.
Oder ist das bei Apple anders?
 
  • Gefällt mir
Reaktionen: PowerCD
Interessant. Shared Memory zwischen GPU und CPU ist Neuerdings also ein Vorteil.
Eigentlich profitieren GPUs doch von superschnellem Grafikspeicher, der sich nicht auch noch die ohnehin schon schmale bandbreite mit der CPU teilen muss.
Oder ist das bei Apple anders?

Eigentlich schon. Deren Begründung war, dass die Daten zwischen CPU und GPU nicht über den PCIE-Bus müssen.
 
  • Gefällt mir
Reaktionen: Leslie
Aus gutem Grund hatte Apple den Benchmarkvergleich zu verhindern versucht: die Ergebnisse sind (noch) nicht vergleichbar. Ich staune nur über die Möchtegern Ingenieure, die solche Ergebnisse asap veröffentlichen. Die BWLer Erziehung seit den 80er Jahren war wohl erfolgreich ... Der Trend der Zeit, Hauptsache bad news!
 
  • Gefällt mir
Reaktionen: chris25 und Demogorgon
Eigentlich schon. Deren Begründung war, dass die Daten zwischen CPU und GPU nicht über den PCIE-Bus müssen.
Das ist in der Tat ein Argument, wobei sich die Frage stellt, in welchen Anwendungen das tatsächlich Vorteile hat, vor allem eben aufgrund der Nachteile des langsameren Speichers.
Voraussetzung ist natürlich, dass CPU und GPU auch wirklich gemeinsam auf den Speicher zugreifen können.
Wie ist das eigentlich bei den aktuellen/angekündigten iGPUs von Intel/AMD? Planen die so etwas eventuell auch?
 
Aus gutem Grund hatte Apple den Benchmarkvergleich zu verhindern versucht: die Ergebnisse sind (noch) nicht vergleichbar. Ich staune nur über die Möchtegern Ingenieure, die solche Ergebnisse asap veröffentlichen. Die BWLer Erziehung seit den 80er Jahren war wohl erfolgreich ... Der Trend der Zeit, Hauptsache bad news!

Die Presse bemüht sich auffallend einmütig das Gerät als großen Wurf zu verkaufen !
 
Die Presse bemüht sich auffallend einmütig das Gerät als großen Wurf zu verkaufen !

Schon wieder eine Verschwörung? Haben wir davon nicht genug? ;)

Es ist ja klar das dieser Prototyp Mini noch nicht die Leistung der fertigen Geräte zeigt, aber selbst dieser Mini wäre mir schon 10x lieber als mein alter 2018er. Wenn denn dann ein Mac Mini wirklich auch in den Verkauf geht, ist da sicherlich ein anderer Chip drin als ein A12Z und die Leistung wird noch besser sein. Ich werde definitiv zuschlagen. Muss aber auch dazu sagen, das Adobe und Microsoft ja schon safe ist für native Anwendungen und damit alles was ich brauche vorhanden sein wird. Was "alte" emulierte Anwendungen betrifft habe ich keinerlei Bedarf.
 
Das ist in der Tat ein Argument, wobei sich die Frage stellt, in welchen Anwendungen das tatsächlich Vorteile hat, vor allem eben aufgrund der Nachteile des langsameren Speichers.
Voraussetzung ist natürlich, dass CPU und GPU auch wirklich gemeinsam auf den Speicher zugreifen können.
Wie ist das eigentlich bei den aktuellen/angekündigten iGPUs von Intel/AMD? Planen die so etwas eventuell auch?

Bei den Konsolen mit AMD-Hardware ist das aktuell ja schon so. CPU und GPU teilen sich z.B. bei der PS4 einen gemeinsamen GDDR5-Pool, der (bis auf reservierte Bereiche) von beiden gleichermaßen genutzt werden kann.
 
Zurück
Oben Unten