urmelchen2009
Aktives Mitglied
- Dabei seit
- 02.03.2009
- Beiträge
- 1.064
- Reaktionspunkte
- 478
Ich sage, wenn Intel die letzten Jahre besser abgeliefert hätte, gäbe es vielleicht den M1 nicht.
Folgen Sie dem Video unten, um zu sehen, wie Sie unsere Website als Icon auf Ihrem Homescreen erstellen.
Anmerkung: This feature may not be available in some browsers.
Ich versteife mich nicht, ihr sagt doch quasi, dass die Intel in den Schatten stellen und postet fleißig Geekbench Werte.
Und jeder der mal Multitasking gemacht hat und das oft braucht, hat mit dem iPad auch schlechte Karten, oder? Oder kannst du im Hintergrund mehrere Tasks an unterschiedliche Apps verteilen und weiter arbeiten?
Wenn Apple den 2018er als 4K mini bewirbt, beschwert man sich danach, beim neuen nimmt man Einschränkungen hin, weil der M1 DIE Wunderwaffe ist? Ernsthaft?
Das Problem ist aber, dass einzelne Tasks auf dem iPad besser laufen als auf dem Mac, wo man sich als Mac-user auch fragt, warum man erst Vorteile haben soll, wenn man mehrere Dinge gleichzeitig macht.
Wir fahren einen Golf GTI, Apple stellt uns einen Porsche hin aber man beschwert sich darüber, dass es LKW mit deutlich größerer Ladefläche gibt.
Ist es denn ein Intel Problem, dass was besser läuft oder liegt es eher daran, dass die Apps gezielt auf dieses Gerät entwickelt wurden, ähnlich der PlayStation und Xbox? Wie ich bereits geschrieben hatte, würden die Softwarehersteller, Apple eingeschlossen, besser optimieren, würde das nicht so auffallen.
Wird die eGPU des 2018er durch das neue Betriebssystem noch unterstützt?
Ja, sonst könnten ja keine ausgelieferte Einheit mehr mit neuem OS benutzt werden.
Zumindest noch nicht....Ich sage, wenn Intel die letzten Jahre besser abgeliefert hätte, gäbe es vielleicht den M1 nicht.
Verstehe das Argument nicht. Intels CPU benötigen zum verrichten einer gewissen Arbeit eine bestimmte Leistung, die aktuell dazu führt, dass sie sehr heiß werden, was Auswirkungen von Größe bis Akkuverbrauch hat. Wenn Du nun sagst die Software solle optimiert werden, dann würde das ja nur was bringen, wenn nicht die gesamte CPU-Power ausgeschöpft werden würde.
Wenn man Final Cut mal mit Premiere vergleicht, dann wird deutlich, dass Apple schon sehr gut optimiert. Wenn man aber Final Cut mit LumaFusion auf dem iPad Pro vergleicht, dann merkt man sofort, dass mit dieser Architektur noch einiges mehr geht.
Wer weiß. Derzeit liegen wohl Jahre dazwischenZumindest noch nicht....
mmmh, Apple war immer sehr konservativ bei der Einführung neuer Prozessoren, andere Anbieter waren da immer mindestens eine Generation weiter.Ich sage, wenn Intel die letzten Jahre besser abgeliefert hätte, gäbe es vielleicht den M1 nicht.
Sehe auf absehbarer Roadmap von Intel keine vergleichbare Evolution in Sachen Leistung vs. Stromverbrauch.mmmh, Apple war immer sehr konservativ bei der Einführung neuer Prozessoren, andere Anbieter waren da immer mindestens eine Generation weiter.
Ich frage mich da schon, warum. Vermutlich lag es an der Gewinnspanne, die eingehalten werden musste.
du hast aber schon mal die hervorragenden fachlichen Posts von @Fl0r!an gelesen, der ausgeführt hat, dass die mm im Prozessorbereich überbewertet werden?Sehe auf absehbarer Roadmap von Intel keine vergleichbare Evolution in Sachen Leistung vs. Stromverbrauch.
Nach ihrem 10 nm Flop „möchte“ Intel erst 2021 in 7mm und dann erst in den Folgejahren kleiner bauen
Nein, den Post kenn ich nicht.du hast aber schon mal die hervorragenden fachlichen Posts von @Fl0r!an gelesen, der ausgeführt hat, dass die mm im Prozessorbereich überbewertet werden?
Klar, auf Werbeflyern liest sich das alles super, aber relevant ist es nicht immer .
Wobei man dazu sagen muss, dass Apple a) große Stückzahlen und b) häufig exotische Modelle (z.B. die mit Iris-Plus-Grafik) braucht, die Intel gerade am Anfang ggf. noch nicht ausreichend liefern kann. Das liebe Geld spielt aber sicher auch eine Rolle.mmmh, Apple war immer sehr konservativ bei der Einführung neuer Prozessoren, andere Anbieter waren da immer mindestens eine Generation weiter.
Ich frage mich da schon, warum. Vermutlich lag es an der Gewinnspanne, die eingehalten werden musste.
Intel bringt mit "Alder Lake" nächstes Jahr erstmals im x86-Bereich eine Hybrid-CPU ähnlich ARMs big.LITTLE-Architektur, d.h. mit sparsamen Efficiency- und leistungsfähigen Performance-Cores. Das sollte im Mobile-Bereich schon einiges bringen. Mal vorausgesetzt, dass Microsoft den Scheduler in Windows entsprechend ertüchtigt, dass der damit auch was anfangen kann, AMD hat das kürzlich erst als Grund genannt, wohl erstmal keine big.LITTLE-Architektur zu verfolgen.Sehe auf absehbarer Roadmap von Intel keine vergleichbare Evolution in Sachen Leistung vs. Stromverbrauch.
Nach ihrem 10 nm Flop „möchte“ Intel erst 2021 in 7nm und dann erst in den Folgejahren kleiner bauen
Das was du meinst ist aber das Konzept SoC allgemein, also alle Komponenten im gleichen Chip. Das kannst du mit 10nm genauso wie mit 7nm und 5 nm bauen. Das Package ist dann etwas größer und der Stromverbrauch leicht höher bei den größeren Fertigungen. Klar bekommt man auf der selben Fläche dann mehr unter bei kleineren Verfahren. Aber an der Leistung macht rein das Fertigungsverfahren nicht viel aus.Nein, den Post kenn ich nicht.
Trotzdem würde ich die Fertigungsdichte als Key Faktor in der Silicon basierten Chip Technik bezeichnen. Je näher Komponenten möglichst nahe an der CPU, desto schneller und energieeffizienter -> je mehr Komponenten auf einem Chip, desto besser. Gegenläufig dazu könnte dann die Anwendungsbreite werden, da die Chips damit auch immer "spezieller" werden. Apple konnte daher mit der Architektur von ARM, wie auch bereits schon andere Chipdesigner, diesen Weg gehen und diese eigenen Chips bauen.
Intel ist dagegen nach dem letzten Toc den nächsten Tic bisher schuldig geblieben und arbeitet seither mit dem 10nm daran.