Apple Event Apple Special-Event „One more thing.“ 10. November 2020

Ich sage, wenn Intel die letzten Jahre besser abgeliefert hätte, gäbe es vielleicht den M1 nicht.
 
Ja natürlich, wenn sie erstmal wieder 4 TB-Anschlüsse und 1.5TG Arbeitsspeicher unterstützen, und auch verschiedenen GPU-Optionen anbieten können, wird es erst richtig losgehen. Ich hoffe mal mal ich, dass sie die MPX-Module und das gesamte Mac Pro-Konzept nur als One-off entwickelt haben.
 
Ich bin dieses Mal wirklich sehr gespannt auf den direkten Gerätevergleich im Alltag von MBA und MBP. Luke Miani hat alle neuen Macs gekauft und wird in den nächsten Tagen vergleichen. Ist der einzige YouTube-Kanal zum Thema Apple, den ich seit einiger Zeit abonniert habe.

Wie schon vor einigen Seiten geschrieben: bis auf die aktive Kühlung beim MBP sind die Unterschiede zwischen MBA und MBP so gering (mehr oder weniger: MBA 100 Nits weniger, MBP 110 Gramm mehr und andere Lautsprecher), dass das aus meiner Sicht keinen Aufpreis von über 300 Euro rechtfertigt. Das wird echt spannend.
 
  • Gefällt mir
Reaktionen: djblow
Ich versteife mich nicht, ihr sagt doch quasi, dass die Intel in den Schatten stellen und postet fleißig Geekbench Werte.
Und jeder der mal Multitasking gemacht hat und das oft braucht, hat mit dem iPad auch schlechte Karten, oder? Oder kannst du im Hintergrund mehrere Tasks an unterschiedliche Apps verteilen und weiter arbeiten?

Das Problem ist aber, dass einzelne Tasks auf dem iPad besser laufen als auf dem Mac, wo man sich als Mac-user auch fragt, warum man erst Vorteile haben soll, wenn man mehrere Dinge gleichzeitig macht.
Wir fahren einen Golf GTI, Apple stellt uns einen Porsche hin aber man beschwert sich darüber, dass es LKW mit deutlich größerer Ladefläche gibt.

Der M1ist nicht die Lösung aller Computerprobleme dieser Welt, aber für das, was er sein soll, ist er wahrscheinlich gut. Dass die Kritiker immer die Lücken finden, ist ja klar. Aber nach denen müsste mein 2018er iPad Pro inzwischen auch völlig verbogen sein... ;)

Wenn Apple den 2018er als 4K mini bewirbt, beschwert man sich danach, beim neuen nimmt man Einschränkungen hin, weil der M1 DIE Wunderwaffe ist? Ernsthaft?

Weil davon auszugehen ist, dass der M1 genau nicht diese ruckelige Grafik-Experience des 4K mini bieten wird.
 
  • Gefällt mir
Reaktionen: djblow, urmelchen2009, marcozingel und eine weitere Person
Das Problem ist aber, dass einzelne Tasks auf dem iPad besser laufen als auf dem Mac, wo man sich als Mac-user auch fragt, warum man erst Vorteile haben soll, wenn man mehrere Dinge gleichzeitig macht.
Wir fahren einen Golf GTI, Apple stellt uns einen Porsche hin aber man beschwert sich darüber, dass es LKW mit deutlich größerer Ladefläche gibt.

Weil beim Arbeiten nunmal täglich mehrere Tasks parallel laufen. Für mich war der 2018er ideal, gerade wegen der eGPU, da ich sie nur zum Berechnen benötige. Auch sind die Ports mit SSDs, Peripherie und eGPU belegt, die jetzt mal wieder kastriert wurden.
Ist es denn ein Intel Problem, dass was besser läuft oder liegt es eher daran, dass die Apps gezielt auf dieses Gerät entwickelt wurden, ähnlich der PlayStation und Xbox? Wie ich bereits geschrieben hatte, würden die Softwarehersteller, Apple eingeschlossen, besser optimieren, würde das nicht so auffallen.
 
Wird die eGPU des 2018er durch das neue Betriebssystem noch unterstützt?
 
Ist es denn ein Intel Problem, dass was besser läuft oder liegt es eher daran, dass die Apps gezielt auf dieses Gerät entwickelt wurden, ähnlich der PlayStation und Xbox? Wie ich bereits geschrieben hatte, würden die Softwarehersteller, Apple eingeschlossen, besser optimieren, würde das nicht so auffallen.

Verstehe das Argument nicht. Intels CPU benötigen zum verrichten einer gewissen Arbeit eine bestimmte Leistung, die aktuell dazu führt, dass sie sehr heiß werden, was Auswirkungen von Größe bis Akkuverbrauch hat. Wenn Du nun sagst die Software solle optimiert werden, dann würde das ja nur was bringen, wenn nicht die gesamte CPU-Power ausgeschöpft werden würde.

Wenn man Final Cut mal mit Premiere vergleicht, dann wird deutlich, dass Apple schon sehr gut optimiert. Wenn man aber Final Cut mit LumaFusion auf dem iPad Pro vergleicht, dann merkt man sofort, dass mit dieser Architektur noch einiges mehr geht.
 
Ja, sonst könnten ja keine ausgelieferte Einheit mehr mit neuem OS benutzt werden.

Das verstehe Ich nicht ganz. Was meinst Du mit “Einheit”?
Die Rechner können natürlich weiter genutzt werden, zumindest immer ohne eGPU.
Es war doch schon so, dass ein letztes Update im OS schon einige eGPUs nicht mehr richtig hat funktionieren lassen.
 
Verstehe das Argument nicht. Intels CPU benötigen zum verrichten einer gewissen Arbeit eine bestimmte Leistung, die aktuell dazu führt, dass sie sehr heiß werden, was Auswirkungen von Größe bis Akkuverbrauch hat. Wenn Du nun sagst die Software solle optimiert werden, dann würde das ja nur was bringen, wenn nicht die gesamte CPU-Power ausgeschöpft werden würde.

Wenn man Final Cut mal mit Premiere vergleicht, dann wird deutlich, dass Apple schon sehr gut optimiert. Wenn man aber Final Cut mit LumaFusion auf dem iPad Pro vergleicht, dann merkt man sofort, dass mit dieser Architektur noch einiges mehr geht.

Wenn du Fotos mit Capture One vergleichst, siehst du, wer die Nase vorn hat, wenn du Bilder komprimierst, siehst du, dass JPEGmini Pro wesentlich schneller als Fotos, Affintiy und Photoshop ist. Wenn du iTunes zum kodieren nimmst, siehst, da XLD und dBpoweramp gut 10x schneller sind. Also macht es einen Unterschied, ob die Software 10min alles abverlangt und kontinuierlich über 100min hinweg.
 
Ich sage, wenn Intel die letzten Jahre besser abgeliefert hätte, gäbe es vielleicht den M1 nicht.
mmmh, Apple war immer sehr konservativ bei der Einführung neuer Prozessoren, andere Anbieter waren da immer mindestens eine Generation weiter.
Ich frage mich da schon, warum. Vermutlich lag es an der Gewinnspanne, die eingehalten werden musste.
 
mmmh, Apple war immer sehr konservativ bei der Einführung neuer Prozessoren, andere Anbieter waren da immer mindestens eine Generation weiter.
Ich frage mich da schon, warum. Vermutlich lag es an der Gewinnspanne, die eingehalten werden musste.
Sehe auf absehbarer Roadmap von Intel keine vergleichbare Evolution in Sachen Leistung vs. Stromverbrauch.
Nach ihrem 10 nm Flop „möchte“ Intel erst 2021 in 7nm und dann erst in den Folgejahren kleiner bauen
 
Sehe auf absehbarer Roadmap von Intel keine vergleichbare Evolution in Sachen Leistung vs. Stromverbrauch.
Nach ihrem 10 nm Flop „möchte“ Intel erst 2021 in 7mm und dann erst in den Folgejahren kleiner bauen
du hast aber schon mal die hervorragenden fachlichen Posts von @Fl0r!an gelesen, der ausgeführt hat, dass die mm im Prozessorbereich überbewertet werden?
Klar, auf Werbeflyern liest sich das alles super, aber relevant ist es nicht immer ;).
Und ob Apple ihre großspurigen Versprechungen halten kann werden wir sehen.
Ich persönlich kämpfe gerade mit dem iPhone 12 Pro, das laut Apple angeblich u.a. 65 Stunden Musikwiedergabe bietet, tatsächlich aber mit Achen und Krachen einen Tag durchhält.
Typische Apple Werbung vs. Realität halt.
 
Der "Gegner" könnte auf absehbare Zeit ohnehin AMD sein statt Intel, zumindest was die Prozessoren angeht. Intel würde ich jetzt mal nicht vorschnell abschreiben, die sind ja recht breit aufgestellt.

Und gerade AMD hat mit Renoir ja gerade erst gezeigt, wie gut sie mittlerweile die Leistungsaufnahme optimiert haben... Ich würde daher eher mal die Vergleiche in Richtung Ryzen-CPUs ziehen.

Im Übrigen wird hier immer Apple der verkleinerte Fertigungsmechanismus (5nm) zugeschrieben, tatsächlich ist das der "Verdienst" von TSMC, die ja im Übrigen auch AMD CPUs produzieren (noch in 7nm aber 5 nm stehen ja auch schon an)
 
  • Gefällt mir
Reaktionen: maba_de
du hast aber schon mal die hervorragenden fachlichen Posts von @Fl0r!an gelesen, der ausgeführt hat, dass die mm im Prozessorbereich überbewertet werden?
Klar, auf Werbeflyern liest sich das alles super, aber relevant ist es nicht immer ;).
Nein, den Post kenn ich nicht.
Trotzdem würde ich die Fertigungsdichte als Key Faktor in der Silicon basierten Chip Technik bezeichnen. Je näher Komponenten möglichst nahe an der CPU, desto schneller und energieeffizienter -> je mehr Komponenten auf einem Chip, desto besser. Gegenläufig dazu könnte dann die Anwendungsbreite werden, da die Chips damit auch immer "spezieller" werden. Apple konnte daher mit der Architektur von ARM, wie auch bereits schon andere Chipdesigner, diesen Weg gehen und diese eigenen Chips bauen.
Intel ist dagegen nach dem letzten Toc den nächsten Tic bisher schuldig geblieben und arbeitet seither mit dem 10nm daran.
 
mmmh, Apple war immer sehr konservativ bei der Einführung neuer Prozessoren, andere Anbieter waren da immer mindestens eine Generation weiter.
Ich frage mich da schon, warum. Vermutlich lag es an der Gewinnspanne, die eingehalten werden musste.
Wobei man dazu sagen muss, dass Apple a) große Stückzahlen und b) häufig exotische Modelle (z.B. die mit Iris-Plus-Grafik) braucht, die Intel gerade am Anfang ggf. noch nicht ausreichend liefern kann. Das liebe Geld spielt aber sicher auch eine Rolle. :i;):

Ich bin nach wie vor sehr gespannt auf Real-World-Ergebnisse. Dass Apple in Sachen Perf/Watt Intel schlagen wird überrascht nicht groß, da Apples CPUs ja aus der Low-Power-Richtung kommen, während Intels Hauptgeschäft eher die Desktops, Workstations, Server und Notebooks dieser Welt sind. Dass Apple ihre Architektur (die sehr breit ist, und damit eigentlich eher nicht für hohe Taktraten geeignet) nun offensichtlich doch dazu ertüchtigt hat, in einem 10W-Chip in Sachen Single-Thread-Performance an vorderster Front mitzuspielen erstaunt mich dagegen doch sehr. Da bei Intel und AMD wohl nicht nur Idioten arbeiten, scheint der Nachteil der x86-Abwärtskompatibilität wohl doch größer zu sein als gedacht.

Aber wieviel am Ende übrig bleibt wird man dann in Praxistests sehen. Die von Apple genannten phantastischen Zahlen beziehen sich zum Teil sicherlich auf Anwendungen, die aus den unzähligen Spezialisierungen des M1 Nutzen ziehen können. Auch wenn das sicher eine Rolle spielt, ist die Betrachtung von Anwendungen ohne solche Beschleunigungen erstmal interessanter, da sie deutlich höhere Aussagekraft über die Leistung der CPU-Cores haben.

Sehe auf absehbarer Roadmap von Intel keine vergleichbare Evolution in Sachen Leistung vs. Stromverbrauch.
Nach ihrem 10 nm Flop „möchte“ Intel erst 2021 in 7nm und dann erst in den Folgejahren kleiner bauen
Intel bringt mit "Alder Lake" nächstes Jahr erstmals im x86-Bereich eine Hybrid-CPU ähnlich ARMs big.LITTLE-Architektur, d.h. mit sparsamen Efficiency- und leistungsfähigen Performance-Cores. Das sollte im Mobile-Bereich schon einiges bringen. Mal vorausgesetzt, dass Microsoft den Scheduler in Windows entsprechend ertüchtigt, dass der damit auch was anfangen kann, AMD hat das kürzlich erst als Grund genannt, wohl erstmal keine big.LITTLE-Architektur zu verfolgen.

Intels ehemals großer Vorteil der eigenen Fertigung ist inzwischen wohl zu einem Nachteil geworden, wenn man sich das 10nm-Dilemma ansieht. "Angeblich" entwickelt die 7nm-Process-Node sich aber gut und wäre in Sachen Logikdichte dem 5nm-Prozess von TSMC deutlich überlegen. Aber auch hier wird man am Ende erst sehen, was davon übrig bleibt.
Ein Vergleich zwischen der aktuellen Intel-Core-Architektur gefertigt mit TSMCs Prozess und den Ryzens wäre mal sehr interessant, ich würde vermuten, das würde sich gar nicht viel nehmen. Einen grundsätzlichen Nachteil gegenüber AMD hat Intel eigentlich nur bei den wirklich großen CPUs mit vielen Kernen, da AMDs Chiplet-Design hier viel besser skaliert und man sich riesige Dies mit schlechten Yields spart.
 
  • Gefällt mir
Reaktionen: Dextera und urmelchen2009
Nein, den Post kenn ich nicht.
Trotzdem würde ich die Fertigungsdichte als Key Faktor in der Silicon basierten Chip Technik bezeichnen. Je näher Komponenten möglichst nahe an der CPU, desto schneller und energieeffizienter -> je mehr Komponenten auf einem Chip, desto besser. Gegenläufig dazu könnte dann die Anwendungsbreite werden, da die Chips damit auch immer "spezieller" werden. Apple konnte daher mit der Architektur von ARM, wie auch bereits schon andere Chipdesigner, diesen Weg gehen und diese eigenen Chips bauen.
Intel ist dagegen nach dem letzten Toc den nächsten Tic bisher schuldig geblieben und arbeitet seither mit dem 10nm daran.
Das was du meinst ist aber das Konzept SoC allgemein, also alle Komponenten im gleichen Chip. Das kannst du mit 10nm genauso wie mit 7nm und 5 nm bauen. Das Package ist dann etwas größer und der Stromverbrauch leicht höher bei den größeren Fertigungen. Klar bekommt man auf der selben Fläche dann mehr unter bei kleineren Verfahren. Aber an der Leistung macht rein das Fertigungsverfahren nicht viel aus.
 
Oh? Gerade ein Update am MBP erhalten. Affinity Photo ist vollständig kompatibel mit Big Sur und optimiert für Apple M1.
 
  • Gefällt mir
Reaktionen: dodo4ever
Zurück
Oben Unten