Die Zukunft von macOS mit ARM-Prozessoren?!

selbstverständlich.

besser als ständig updates einzuspielen ohne sich vorher zu erkundigen, ob dann die anwendersoftware noch läuft, mit der man produktiv sein will, ist es allemal.

wenn du merkst, dass du mit einer methode probleme bekommst, dann ist das genau der moment, wo man die methode ändern sollte.
Das man mit seinem Produktivsystem nicht an Tag 1 auf ein neues Major-Release springt ist selbstverständlich. Durch die überschaubaren Support-Zeiträume bei Apple kann man aber nicht ewig auf alten Releases rumreiten, nach spätestens 3 Jahren ist man aus dem Support. Und ein unsupportetes OS ohne Sicherheitsupdates auf einem Produktivsystem steht ja wohl nicht ernsthaft zur Diskussion...

Und wie gesagt, ich bin selbstkritisch genug um meine Arbeitsweise anzupassen. Seit ich macOS für Arbeitszwecke aufgegeben habe ist alles gut.
 
Das man mit seinem Produktivsystem nicht an Tag 1 auf ein neues Major-Release springt ist selbstverständlich.
ICH bin bei SW gerne schon ab dem -30ten Tag dabei. :)

Allerdings nicht ohne Netz und doppelten Boden. Ich hab damit seit nunmehr über 30 Jahren nicht mehr Probleme gehabt, als mit regulären Releases – aber immer unter dem Aspekt, daß ich stets damit rechne, daß ein Update was kaputt machen kann und dementsprechend Backups habe.

Wie war das noch? "Ich will Zukunft – Jetzt!" ?
 
Das man mit seinem Produktivsystem nicht an Tag 1 auf ein neues Major-Release springt ist selbstverständlich. Durch die überschaubaren Support-Zeiträume bei Apple kann man aber nicht ewig auf alten Releases rumreiten, nach spätestens 3 Jahren ist man aus dem Support. Und ein unsupportetes OS ohne Sicherheitsupdates auf einem Produktivsystem steht ja wohl nicht ernsthaft zur Diskussion...

ja aber warum denn nicht?

das klingt in meinen ohren wie reine ideologie.

wie ein glaubenssatz der marke "milch ist gesund". ist sie nicht, sie ist hochgradig krebserzeugend. ich bin deswegen nach 30 jahren kürzlich auf joghurt umgestiegen.

das durchschnitts(!)alter von PCs und servern im gewerblichen bereich liegt bei 11(!) jahren.

und niemand mit einem IQ über 35 braucht "support" um ein system am laufen zu halten.

man installiert ein system, man installiert programme, man lernt damit umzugehen, dann benutzt man es so lange, wie es wirtschaftlich sinnvoll erscheint.

jedes jahr einen neuen rechner kaufen und jedes jahr alle betriebssystemupdates mitmachen braucht man eigentlich nur, wenn man entwickler ist. dann hast du natürlich keine andere chance.

schadsoftware gabs bis vor 5 jahren praktisch kaum, von wichtigen daten macht man backups, und rechner, die 24/7 im einsatz sein müssen, kann man einfach nicht ans internet anschließen. und wer an hochtechnologie forscht und 200 mitarbeiter hat, der kann sich auch intrusion detection und honeytrap sets leisten.

der rest ist reine glaubenssache.

du hast selbstverständlich recht, dass apple teilweise unangekündigt einfach dinge ändert oder weglässt und damit hersteller und nutzer von programmen manchmal echt im regen stehen lässt - und auf die palme treibt.

aber dennoch: du hast die entscheidung getroffen, das update zu machen ohne vorher zu checken, ob dein matlab noch läuft. und kannst es nicht mal hinterher wirklich begründen. :)

dass mit jedem apple OS update die anzahl der sicherheitslücken immer größer wird setze ich als bekannt voraus. ich ziehe daraus ganz andere konsequenzen wie du...
 
  • Haha
Reaktionen: Macs Pain und mj
Das beschriebene Vorgehen ist für den Privatgebrauch und meinetwegen für 'ne kleine Klitsche ok, im größeren Unternehmensumfeld aber recht realitätsfern. Ich bin schlicht dazu verpflichtet, mit einem aktuellen System mit allen Sicherheitsupdates zu arbeiten. Allein damit hat sich die Diskussion eigentlich erübrigt.

Und der Ansatz "einmal System und Programme installieren und damit arbeiten bis zum Ende aller Tage" ist auch nur tragfähig, wenn man a) "allein auf der Welt ist", d.h. man durch Schnittstellen mit der Außenwelt nicht gezwungen wird sich weiterzubewegen und b) man sich eben dazu entschließt, an der fortschreitenden Entwicklung in allen möglichen Bereichen nicht teilhaben zu wollen.

Es ist Fakt, dass große Softwarepakete (in meinem Bereich z.B. Matlab und Comsol, gilt aber genauso für Adobe CC & Co) unter macOS und Windows völlig unterschiedliche Supportzeiträume haben, die eben direkt aus der jeweiligen Unternehmenspolitik resultieren. Während man in der MS-Welt sehr häufig Zeiträume von >10 Jahren sieht (aktuelle Software läuft fast immer offiziell auf Win7, und Software aus der Win7-Zeit läuft ebenso unter Win10), sind es bei Apple 2-3 Releases und das war es. Das erhöht die Flexibilität eben ungemein, um nichts anderes ging es mir.
 
  • Gefällt mir
Reaktionen: electricdawn, mj und RonVandermeer
Das große, ich sag mal, Hauptproblem ist, dass Apple halt im Gegensatz zu Microsoft auch vom Verkauf von Hardware lebt und Hardware verkauft sich einfach besser wenn neuere Software ältere Hardware nicht mehr unterstützt. Apple hat das schon vor weit mehr als 10 Jahren erkannt. Es ist ja nicht so, dass z.B. Catalina nicht auf einem 10 Jahre alten Mac lauffähig zu bekommen wäre (und es läuft sogar sehr rund darauf wie ich aus eigener Erfahrung weis). Nur würde Apple das anbieten, dass Catalina auf einem 10 Jahre alten Mac laufen würde, dann würde Apple auch weniger Macs verkaufen.

Aber: Können wir vielleicht wieder zum eigentlichen Thema kommen? Wäre vielleicht ganz nett, die Supportsachen und Co sind jetzt, denke ich, genug durchgekaut worden hier (und auch in diversen anderen Threads, besteht Diskussionsbedarf kann man ja nen neuen Thread aufmachen).
 
  • Gefällt mir
Reaktionen: McOdysseus und Fl0r!an
Eine, vielleicht zunächst, etwas komische oder naive Frage: findet ihr das nicht auch merkwürdig, dass Apple so scheinbar mühelos an Intel vorbeiziehen kann? Dass auch AMD Intel so massiv die Rücklichter zeigt? (Zumindest im Desktopbereich)
Oder anders gefragt: Bei Intel sind die ja nicht von dem einen auf den anderen Tag dumm geworden. Sind durch Fehler des Managements so weit zurückgefallen, oder sind die gar nicht so weit zurück und wir vergleichen Äpfel mit Birnen?
Ich merke gerade, wie schwer das ist, die Frage richtig zu formulieren. Vielleicht versteht ihr ja auch so, was meine...
 
Dann scheint der Umstieg auf eigene CPU‘s ja doch nicht der Untergang des Abendlandes zu sein, wie hier einige vermuten.
 
  • Gefällt mir
Reaktionen: spatiumhominem und ma2412
Eine, vielleicht zunächst, etwas komische oder naive Frage: findet ihr das nicht auch merkwürdig, dass Apple so scheinbar mühelos an Intel vorbeiziehen kann? Dass auch AMD Intel so massiv die Rücklichter zeigt? (Zumindest im Desktopbereich)
Oder anders gefragt: Bei Intel sind die ja nicht von dem einen auf den anderen Tag dumm geworden. Sind durch Fehler des Managements so weit zurückgefallen, oder sind die gar nicht so weit zurück und wir vergleichen Äpfel mit Birnen?
Ich merke gerade, wie schwer das ist, die Frage richtig zu formulieren. Vielleicht versteht ihr ja auch so, was meine...
Intel hatte über die letzten Jahre und Jahrzehnte einen wahnsinnigen Technologievorsprung, sowohl in Sachen der Fertigungsprozesse als auch der Mikroarchitektur ihrer CPUs, der nun (mehr als) aufgebraucht ist. Die Mikroarchitektur ist nach meinem Verständnis immer noch sehr gut bzw. sogar führend, die höchste Leistung pro Core hat immer noch Intel (was für viele Anwendungen immer noch sehr relevant ist). AMD ist knapp dran, Apple kann man einordnen, sobald sie einen Desktop-Chip haben.

Intels Hauptproblem ist offensichtlich der Kampf gegen die Physik bei der Weiterentwicklung der Fertigungsprozesse. Die Bezeichnung der Process Nodes ist etwas irreführend, da die angegebenen Strukturbreiten physikalisch nicht begründet sind, d.h. "10nm", "7nm" & Co sind eher Marketing-Bezeichnungen. Intels 10nm-Prozess hat eine höhere Dichte als die 7nm-Prozesse von TSMC oder Samsung, und der oben genannte 7nm-Prozess von Intel spielt in einer völlig anderen Liga als das, was TSMC oder Samsung aktuell als "7nm" vermarkten (Quelle).
Als wesentlicher Unterschied bleibt allerdings, dass TSMC und Samsung mit guter Ausbeute große Stückzahlen liefern können, während Intel sich über die letzten Jahre nur von homöopathischen Stückzahlen kleiner 2-Core-CPUs zu kleinen Mobile-CPUs steigern konnte. Desktop-CPUs fehlen ja immer noch. Ob das jetzt auf falsches Management zurückzuführen ist oder was die Ursachen dafür sind wird man als Außenstehender aber vermutlich nie erfahren. Der vierte Fertiger im Bunde, GlobalFoundries, ist im Rennen um 7nm, 5nm & Co übrigens komplett ausgestiegen.

AMD hat daraus zwei große Vorteile: Da sie keine eigene Fertigung haben, können sie sich einfach den besten (in Sachen Preis / Performance) aussuchen.
Außerdem haben sie mit den jüngeren Ryzen-CPUs das sog. Chiplet-Design eingeführt: Statt einem großen, monolithischen Die besteht die CPU nun aus mehreren kleinen Dies. Da die Fertigung kleiner Dies mit deutlich höherer Ausbeute (und somit deutlich günstiger) möglich ist, kann AMD seine CPUs erheblich günstiger anbieten.
 
  • Gefällt mir
Reaktionen: dodo4ever, JeanLuc7, mj und 5 andere
@Fl0r!an: Danke für deine ausführliche Antwort! Dein letzter Absatz beschreibt meine Frage recht gut: warum kommt Intel nicht mehr auf solche Lösungen? Satt, träge, Abgang kreativer Köpfe? Es ist die Kombination aus dem Aufstieg von ARM und AMD mit dem „Niedergang“ Intels, die mich ob des Tempos ihres Wandels verwundert. Vielleicht ist es aber auch nur der natürliche Verlauf der Dinge.
 
  • Gefällt mir
Reaktionen: dodo4ever
Danke für deine ausführliche Antwort! Dein letzter Absatz beschreibt meine Frage recht gut: warum kommt Intel nicht mehr auf solche Lösungen? Satt, träge, Abgang kreativer Köpfe? Es ist die Kombination aus dem Aufstieg von ARM und AMD mit dem „Niedergang“ Intels, die mich ob des Tempos ihres Wandels verwundert. Vielleicht ist es aber auch nur der natürliche Verlauf der Dinge.
Das sind Fragen, die kann hier niemand beantworten, der nicht bei Intel arbeitet und wer das tut, wird diese Fragen sicherlich nicht beantworten. Da könnte man genauso fragen, warum Volkswagen, du weißt schon was getan hat...
Intel hatte über 15 Jahre eine ziemliche Monopolstellung und war darüber hinaus die ersten Jahre auch noch richtig innovativ und konnte seinen Vorsprung sukzessive ausbauen.
Aber wenn man keine Konkurrenz hat, wird jeder schläfrig. AMD hingegen war vor einigen Jahren quasi tot als CPU-Hersteller. Die haben sich wohl „auf ihren Hosenboden gesetzt“, weil sie mussten. Not macht bekanntlich erfinderisch.
 
  • Gefällt mir
Reaktionen: dodo4ever
@Fl0r!an: Danke für deine ausführliche Antwort! Dein letzter Absatz beschreibt meine Frage recht gut: warum kommt Intel nicht mehr auf solche Lösungen? Satt, träge, Abgang kreativer Köpfe? Es ist die Kombination aus dem Aufstieg von ARM und AMD mit dem „Niedergang“ Intels, die mich ob des Tempos ihres Wandels verwundert. Vielleicht ist es aber auch nur der natürliche Verlauf der Dinge.
Die Idee ansich ist ja nicht neu, eigentlich ist sie sogar sehr alt: Im Verlauf der letzten Jahrzehnte haben die stetig fortschreitenden Fertigungstechnologien erlaubt, immer mehr Funktionen auf einem Die unterzubringen. Durch die kleineren Strukturbreiten hat man immer mehr auf dieselbe Fläche quetschen können, bzw. durch kleinere Chip-Flächen sogar noch Geld sparen können.
Das klappt nun aber nicht mehr, da die Preise für die führenden Technologien derart hoch sind, dass es ab bestimmten Die-Größen wirtschaftlicher wird, die Funktionen wieder auf mehrere Chiplets aufzuteilen. Das ist auch Intel klar, und die haben auch entsprechende Fertigungstechnologien.

Ich vermute aber mal (mehr kann ich eh nicht tun), dass Intel seine Roadmap auf eine deutlich effizientere 10nm Process Node ausgerichtet hatte, und sicherlich auch eingeplant hatte, seine bisherige Monopolstellung weiter ausnutzen zu können. Der Fertigungsprozess ist nun aber immer noch nicht wirklich gut, und zeitgleich wirft AMD mit 12-Core-CPUs für 400€ um sich. Ist halt blöd gelaufen. :iD:
 
  • Gefällt mir
Reaktionen: dodo4ever
Naja, ich würde Intel jetzt mal noch nicht abschreiben. Wie Fl0r!an schon schrieb ist der Fertigungsprozess von Intel nicht direkt mit dem der anderen Hersteller, insbesondere TSMC zu vergleichen. TSMC ist sicher technisch voraus aber ganz so groß wie derzeit suggeriert ist der Abstand nicht. Hinzu kommt, dass Intel (im Gegensatz zu AMD) über immense finanzielle Möglichkeiten verfügt. Aber die Probleme sind sicher nicht von der Hand zu weisen, zu lange hat es mangels Konkurrenz ausgereicht, die Kunden mit 10 Prozent Leistungszuwachs bei neuen Prozessoren abzuspeisen und die Kunden dann oftmals grad noch zum gesamten Plattformwechsel zu nötigen (da neue Chipsätze bzw. Sockel erforderlich)

Ich für meinen Teil freu mich für AMD und hoffe, dass der derzeitige Erfolg noch lange anhält. Ich hätte mich wirklich gefreut, einen MacPro mit Threadripper-CPUs zu sehen... Aber Konkurrenz belebt das Geschäft und sollte nun die ARM-Architektur dazu noch entsprechende Verbreitung finden, kann das nur gut sein für die Kundschaft. Evtl. sorgt das ja für zusätzlichen Antrieb im Hause Intel:)

Mal sehen, wer sich ARM in Kürze unter den Nagel reißt und was das dann konkret für Auswirkungen hat:

https://t3n.de/news/groesster-chip-deal-aller-zeiten-1302712/
 
  • Gefällt mir
Reaktionen: dodo4ever
Ich spekuliere mal, dass neben den technischen Herausforderungen des Produktionsprozesses, die @Fl0r!an sehr schön beschrieben hat, die Tatsache der fehlenden Konkurrenz entscheidend war. Schaut man in die Geschichte Intels zurück ist ein immer wiederkehrendes Muster zu erkennen:

1) Intel hat einen Technologievorsprung, es fehlt an ernstzunehmender Konkurrenz und man ruht sich auf den Lorbeeren aus
2) Ein Konkurrent kommt ums Eck und macht Intel Feuer unter'm Hintern
3) Intel investiert massivst in R&D, schließlich arbeiten dort ausgesprochen fähige Köpfe, und entwickelt einen scheinbar uneinholbaren Technologievorsprung
4) Goto 1)

Letztlich heißt es immer so schön: Konkurrenz belebt das Geschäft. Das mag jetzt zwar eine stark versimplifizierte Sichtweise sein, aber ein Blick in die vergangenen 40 Jahre Prozessor-Entwicklung zeigt eine immerwährende Wiederkehr dieser Entwicklung.
 
  • Gefällt mir
Reaktionen: dooyou, dodo4ever, Leslie und eine weitere Person
Wie sagt man schon vor 15 Jahren: Die "Schnellen werden die Langsamen fressen", statt wie früher die "Großen werden die Kleinen schlucken". Je größer ein Unternehmen, desto länger dauern Veränderungen, Intel hat eine kritische Größe und bis sich Fertigungskonzeptionen und neue Ideen verbreitet durchsetzen, verlieren sie zunehmend an Vorsprung. Wenn man sich anschaut mit welchen Tempo Tesla eine ganze Industrie umkrempelt - und die Riesen der Branche kämpfen mit dem Tempo…

Apple hat sicherlich aus mehreren Gründen auf das ARM Konzept gesetzt:
- große Teile ihrer Produkte setzen schon auf ARM, da wäre es doch nett wenn alles…
- ARM kann flexibler (bedingt durch die Fertigungstechniken mit kleineren Die's reagieren), Intel muss auch weiter das Standardgeschäft berücksichtigen (und das heißt nicht Apple!)
- ein einheitliches Chipkonzept würde definitiv Synergieeffekte bewirken (und Apple weiß wie man Geld verdient…)
- wenn iOS und MacOS verschmelzen (und ich schätze in 10 Jahren spekulieren wir nicht mehr darüber…) verringern sich Pflegeaufwand für Software, die Zahl der Programmierer kann bei gleichen Ausstoß verringert werden und die Firma kommt ihrem "ONE" for all Concept entscheidend näher.

Wer sich die digitale Welt anschaut, erkennt dass sich die Leistungsanfordungen entscheidend verändern - vor 20 Jahren war ein Computer NIE schnell genug (privat und beruflich), heute dümpeln vor allem die privat genutzten Rechner hauptsächlich in Leistungsregionen die schon ein iPhone abdecken könnte. (könnte, denn bei der Selbstbeschränkung der Software kann es das eben doch nicht). Wer die Aussage überprüfen will, darf gern mal im privaten Umfeld fragen welche digitale Aufgabe welche Leistung erfordert… 9 von 10 können das vermutlich gar nicht einschätzen ;). Die Leistungshungrigen werden die Spieler bleiben und beruflichen Nutzer bestimmter Bereiche (also jetzt nicht gerade Textverabeiter… )
 
Intels derzeit anhaltende Schwäche ist von allen denkbaren Gründen für den Wechsel auf selbst designte ARM-basierte SoCs sicherlich der Unbedeutendste. Apple hätte schließlich auch bei x86 bleiben und stattdessen AMD-Chips verbauen können.
 
Intels derzeit anhaltende Schwäche ist von allen denkbaren Gründen für den Wechsel auf selbst designte ARM-basierte SoCs sicherlich der Unbedeutendste.

Sicherlich hat sicherlich eine fundierte Quelle und ist nicht nur eine Vermutung? Es gibt in der Zusammenarbeit zwischen Apple und Intel ja durchaus einige Indizien, da auf (auch) genau diese Ursache hinweisen.
 
Bitte mein Posting vollstänig lesen und zitieren. Ist ja nicht so lang. Danke.
 
Zurück
Oben Unten