Die Zukunft von macOS mit ARM-Prozessoren?!

Du kannst nur verlieren im Business-Bereich. Da sind die Kunden nicht so ... nennen wir es "leicht zu führen". Da kosten dich auch solche Fauxpas wie Serienfehler und/oder Sicherheits-Bugs mal eben schnell deinen Ruf. Im Privatkundenbereich vergisst das jeder binnen 5 Minuten und fragt dich, wo er nach 11 Monaten Nutzungszeit die nächsten zig tausend Euro einwerfen darf.

Ich find die Vergleiche zwischen Apple und Microsoft unpassend. Beide bedienen völlig andere Bereiche - beide sind auf ihrem Gebiet gut.
 
  • Gefällt mir
Reaktionen: Ken Guru und Madcat
Ich kann mich noch gut an die Zeit erinnern, als Apple den Markt im kreativen Berufen beherrschte. Mit einem PC wurde man bemitleidet und nicht ernst genommen. Photoshop, QuarkXPress und Freehand, alles auf einen Mac, war Standard. In Werbeagenturen gab es, außer in der Buchhaltung vielleicht, nur Macs.
 
…Ich find die Vergleiche zwischen Apple und Microsoft unpassend. Beide bedienen völlig andere Bereiche - beide sind auf ihrem Gebiet gut.
Absolut einverstanden, ich habe auch keine Perspektive bezüglich der Wege Apples aufgezeigt, sondern eher darauf, dass Apple den Consumerbereich schon recht weit abgegrast hat. Aktuell investieren sie verstärkt in den medialen Bereich, weil die eben langfristige Gewinne versprechen, da aber ist das business auch schon stark besetzt, mal sehen wo Dollar-Tim die nächsten Pfründe aufmachen will. iCar wohl eher nicht, aber dies wäre ein Bereich (Automobilsoftware) wo Apple bisher nun gar nichts zu melden hatte und hier sind definitv MS und ein paar andere Platzhirsche.

Wie geschrieben, es wird sicher spannend, auch weil Intel sich doch seit einiger Zeit schwer tut mit den Innovationen mit zu halten - erinnert ein wenig an IBM … ( ja, ich bin schon älter ;))
 
Intel hat halt sämtliche Vorsprünge über Sicherheitslücken herausgeholt. Diese kommen jetzt schritt für schritt ans licht und sie müssen sie schließen. Solang Apple das mit ihrem ARM nicht auch so handhabt haben sie schon mal nen sehr guten Standpunkt.
 
Wobei Intel sich eher Gedanken um AMD machen wird als um Apple.
 
Solang Apple das mit ihrem ARM nicht auch so handhabt haben sie schon mal nen sehr guten Standpunkt.
Das dürfte derzeit wohl am besten durch "Security by Obscurity" beschrieben werden - mal schauen, was da noch kommt.

Apple ist ja nun nicht gerade dafür bekannt, keine Sicherheitsprobleme zu haben. Und sie sind auch nicht dafür bekannt, sie allzu schnell (und womöglich gar rückwirkend in der Vorgängerversion) zu beheben.
 
Mein erster Computer war ein schlanker Atari STE mit 4MB RAM. Ich kenne die frühen Systeme und fand sie schon damals besser und effizienter als die 286er Monster mit ihren 640KB RAM, die mit config.sys und autoexec.bat überhaupt erst vernünftig speichermäßig aufgeteilt werden mussten.
Frage beantwortet?
Ich habe damals mit Z-80-Systemen unter CP/M erstmals arbeiten können. Der Standard hatte sich aus bekannten Gründen nicht durchgesetzt. Aber zu seiner Zeit sprang sogar Apple auf diesen Zug. Damals hatte ich einen Apple ][ mit einer kombinierten Z-80/Language-Card. So wurde er zu einem Apple ÜÄ der auch noch CP/M konnte.
Der Atari ST war ein feines Konzept, mit Calamus und Pagemaker bekam man professionelle Systeme, die m.E. sogar den damaligen überteuerten Mac im Regen stehen liessen.
Im übrigen hat sich so gut wie nie das technisch beste System durchgesetzt, schon gar nicht wenn es von Apple kam. Insofern ist auch der M1-Hype auch nur eine Episode - aber vermutlich eine schöne...
 
  • Gefällt mir
Reaktionen: Moriarty und wegus
Der Atari ST war ein feines Konzept, mit Calamus und Pagemaker bekam man professionelle Systeme, die m.E. sogar den damaligen überteuerten Mac im Regen stehen liessen.
Außerdem hatte er die MIDI-Schnittstellen In+Out an Bord und das Betriebssystem im ROM. Schalter an und das Ding war da! Kein langwieriges Booten.
Ich habe tatsächlich noch einen 1040ST mit SM124 im Keller.... ;)
 
Wobei Intel sich eher Gedanken um AMD machen wird als um Apple.

Ich denke, die Marktentwicklung zeigt aktuell, dass der M1 zwar sowohl in der Fachpresse als bei den Consumern sehr positiv beurteilt wird, gleichzeitig aber der erwartete riesige Impact auf die IT-Welt ausbleibt. Wenn man die Apple-Blase verlässt findet man auf Tech-Portalen aktuell eigentlich am ehesten die Diskussion, ob intels Generation 11 zur ZEN3-Architektur aufschließen kann. Der M1 findet auch statt, aber das sind meist Berichte aus Dezember 2020, als er neu war. Da wurde mal von einigen Portalen der eine oder andere Premiere- oder Cinebench-Test zwischen M1 und Ryzen 5600 durchgeführt, aber gefühlt lässt das Brancheninteresse eher wieder nach.

Auch die Fachgeschäfte oder Onlineshops wie Notebooksbilliger (der ja trotz des besch*** Namens zu den größten Notebookhändlern zählt) zeigen ein deutliches Bild: intels Generation 11 und AMDs Ryzens befeuern die kompletten Verkaufscharts, vom 300,-€ Medion-Laptop über bunt beleuchtete Gaming-Boliden bis hin zum hochwertigen High-End-Ultrabook. Es ist auch nicht so, dass Apple jetzt seit M1-Start einen unheimlichen Zuwachs am Marktanteil zu verzeichnen hat.

Ich glaube immer noch, dass man weder die Firma intel, noch die x86-Plattform, zu früh abschreiben sollte. Mit ZEN4 wird AMD auch in der 5nm-Region sein und auch die Steiegerungsraten bei der Effizienz oder der Performance/Watt sind ja endlich - Apple hat jetzt beim Wechsel von intel zu Apple Silicon einmalig unheimlich in dieser Disziplin zulegen können, aber von jetzt an wird es ja in kleinen Schritten weitergehen.
 
  • Gefällt mir
Reaktionen: Ken Guru und maba_de
Mit ZEN4 wird AMD auch in der 5nm-Region sein und auch die Steiegerungsraten bei der Effizienz oder der Performance/Watt sind ja endlich - Apple hat jetzt beim Wechsel von intel zu Apple Silicon einmalig unheimlich in dieser Disziplin zulegen können, aber von jetzt an wird es ja in kleinen Schritten weitergehen.

Was in dem Kontext spannend werden dürfte ist, daß auch Intel bei TSMC fertigen lassen wird.
--> https://www.heise.de/news/Fertigungsgeruechte-Apple-und-Intel-CPUs-ab-2023-mit-TSMCs-3-nm-6127995.html

Bisher hat Apple ja nahezu exklusiv die modernsten Fertigungsnodes bei TSMC genutzt.

Gleichzeitig lassen sich durch moderne Nodes keine Kosten mehr sparen, sondern das Gegenteil ist der Fall.
Die Fertigungskosten pro Transistor steigen beständig mit jeden neuen Node.
--> https://www.3dcenter.org/news/der-7nm-prozess-verdoppelt-die-fertigungskosten-auf-gleicher-chipflaeche

Auch die Verbrauchsersparnisse fallen mit immer kleineren Nodes weniger groß aus, als noch vor ein paar Jahren war.
--> https://www.3dcenter.org/news/tsmcs-3nm-fertigung-wird-erneut-keine-performance-verdopplung-ermoeglichen

Spannend wird sein, wie lang man monolithische DIEs finanziell noch stemmen kann.
AMD ist mit Ryzen ja schon den gegenteiligen Weg gegangen -> Multichipmodules (MCMs), wie man sie früher nur in teuren Supercomputern fand.
Imho werden mittelfristig auch Intel/Apple diesen Weg gehen. IBM macht das mit seinen Power CPUs iirc schon länger.
 
Das sind die Page Views, nicht der Marktanteil. Der dürfte für macOS kleiner sein - ich habe hier nur die Zahlen für Ende 2020 gefunden, da ist von 7,7% die Rede. Die Richtung für Windows stimmt allerdings, der Marktanteil geht zurück - bei insgesamt schrumpfendem Markt.

Interessant an den von Dir verlinkten Zahlen ist, dass Chrome OS mit fast 14% Marktanteil Apple mal eben aus dem Stehgreif links überholt und mit doppelt so hohem Anteil dasteht. Wenn man bedenkt, dass Android mittlerweile auch bei knapp 75% Marktanteil ist, und jetzt in den Desktop-Bereich - noch dazu bezahlbar - stößt... zumal die Zeiten für bezahlbare und einfach zu bedienende Geräte in Zeiten von Schulschließungen und Bildungsdigitalisierung ja echt günstig sind.
 
ChromeOS und die ChromeBooks haben halt - wenn ich mich an die Berichte von @mj korrekt erinnere - in amerikanischen Schulen ziemlich eingeschlagen.
 
Mein erster Computer war ein schlanker Atari STE mit 4MB RAM. Ich kenne die frühen Systeme und fand sie schon damals besser und effizienter als die 286er Monster mit ihren 640KB RAM, die mit config.sys und autoexec.bat überhaupt erst vernünftig speichermäßig aufgeteilt werden mussten.
Frage beantwortet?
Ich rede von HARDWARE und nicht von Software. WENN, dann solltest du auch ein RICHTIGES OS auf damaligen Intels als Beispiel nehmen. :) autoexe.bat-gehampel mit HiMem etc. war ein DOS-Problem (und somit bis von Windows bis excl. Win2k). Da gab es auch andere OS, die diese Probleme nicht hatten.

Insofern sind meine Fragen nicht beantwortet.

Davon mal abgesehen, ist es ja nicht mal so, daß sich unter diesen Bedingungen die beste HW hatte durchsetzen können. Ich hätte da den Acorn Archimedes/RiscPC doch weit vor dem MacIntosh gesehen. Die hatten für den Bruchteil des Preises Kreise um die (halbwegs bezahlbare) Konkurenz gedreht. Es hatte schon seinen Grund, warum Sibelius (Notensatz) nur auf dieser Plattform damals hatte entstehen können. Und auch sonst gab es DTP- Tetverarbeitungs- und Grafik-SW, die ganz vorne dabei war.

Diesbezüglich war schon der Acorn BBC ein echter Kracher, da man diesem CPUs unterschiedlicher Architektur verpassen konnte. Neben dem Standard-6502 konnte man dem auch ein Z80 verpassen und CP/M drauf betreiben. Dazu liefen auf diesem Rechner die ersten Prototypen der ARM-Prozessoren. Das waren damals schon richtig fortschrittliche Geräte.
 
Und man sollte auch nicht vergessen, das Apple sich auch einiger Tricks bedient, dass das System sich schnell anfühlt.
Interessant ist der Artikel von
https://eclecticlight.co/2021/05/17/how-m1-macs-feel-faster-than-intel-models-its-about-qos/
„Tricks“ klingt etwas negativ.😉 Was sie mit dem M1 tun, ist die vorhandene Rechenleistung so auszunutzen, das das Gerät schnell reagiert, wenn man es bedient, und Dinge, bei denen es nicht auf Schnelligkeit ankommt, im Hintergrund energieeffizient stattfinden zu lassen. Das geht, weil sie den M1 genau dafür designed und das Betriebssystem entsprechend darauf abgestimmt haben.

Was den M1 auszeichnet, ist nicht die absolute CPU Leistung, da kann man bei AMD oder Intel mehr bekommen, sondern die Energieeffizienz. Hier gibt es ein paar beeindruckende Zahlen dazu: https://daringfireball.net/2021/01/mac_mini_power_consumption
 
Intel hat halt sämtliche Vorsprünge über Sicherheitslücken herausgeholt. Diese kommen jetzt schritt für schritt ans licht und sie müssen sie schließen.
Na ja, das hört sich so an, als hätten sie Sicherheitslücken bewusst in Kauf genommen. Viel wahrscheinlicher ist, das Optimierungen, die sie gemacht haben, sich im Nachhinein als problematisch herausgestellt haben, weil sie Angriffe ermöglicht haben, die vorher unbekannt waren. Nun müssen sie wieder zurückrudern.
 
Was mich in den letzten Tagen immer mehr wundert ist, das von den Performance-Kernen, Efficieny-Kernen und GPU-Kernen gesprochen wird. Und dem RAM. Jedoch nicht von den Neuronal-Kernen. Dabei scheinen sie doch nicht nur etwas zur Leistung beizutragen, warum sollte Apple sie sonst so heraus gestellt haben.
 
Zuletzt bearbeitet:
Ich vermute mal, weil sie für "Alltagsaufgaben" relativ wenig Relevanz haben. Zur normalen Programmausführung tragen sie, wenn überhaupt, nur sehr wenig bei.
 
Zurück
Oben Unten