Wo ist Moores Law?

tocotronaut

Aktives Mitglied
Thread Starter
Registriert
14.01.2006
Beiträge
37.472
Reaktionspunkte
15.569
Langsam denke ich über einen neukauf meines Macbook Pro nach...

Mein erstes Macbook Pro war ein Mid 2007 (3,1)
Dann folgte ein Mid 2012 (9,1) das ich bis heute nutze...
und jetzt würde ich ein Mid 2017 kaufen und habe das gerade mal ein wenig durchgerechnet...

Ich bin regelrecht erschrocken (sogar so erschrocken, dass ich das hier einfach mal posten muss), wie wenig sich da leistungsmässig in den letzten 5 Jahren getan hat.

Geekbench Scores:

2007 MBP
1409 Single-Core Score
2406 Multi-Core Score

2012 MBP
3456 Single-Core Score (2,45 mal schneller als 2007)
11325 Multi-Core Score (4,7 mal schneller als 2007)

2017 MBP
4627 Single-Core Score (1,3 mal schneller als 2012)
15575 Multi-Core Score (1,4 mal schneller als 2012)

Der Geschwindigkeitsanstieg ist in den letzten 5 Jahren DEUTLICH langsamer gewesen als in den 5 jahren davor.
Ich wusste ja, dass intel probleme hat, aber damit habe ich wirklich nicht gerechnet.

Hey Apple - So bekommt ihr mein Geld nicht...

Danke für's Zuhören...
Die Frage aus der Überschrift war übrigens mehr rhetorischer Natur (Ich will mal dieses Clickbait ausprobieren, von dem alle so schwärmen..)
 
Du hast erkannt, warum 13 Jahre nach PowerPC nun wieder eine Transition bevorsteht. Der Grund: Speed vs. Leistbarkeit vs. Stromverbrauch. Es gab einen guten Grund gegen ein PowerBook G5.

ARM-Chips in Macs könnten in mittlerer Zukunft Realität werden.
 
Wenn Du ein neues MacBook benötigst wirst Du auch eines kaufen, egal was Apple verlangt und wie schnell oder nicht, es zu Deinem jetzigen Gerät ist.
 
Aber die SSD ist ca. vier mal so schnell.
Das war für mich eines der wichtigsten Argumente für einen Neukauf.

Viele Grüße
 
Du hättest auch noch die Ampere Stunden der Batterie und den höheren Stromverbrauch des Displays mitrechnen können. Meiner Meinung nach gab es einen Sweetspot bei 15“ mit 1080p.
Alles darüber hört sich technisch gut an, ist aber irgendwie ein Rückschritt.
 
Es stimmt schon, der Anstieg der Prozessorleistung hat in den letzten Jahren immer mehr nachgelassen. Es scheint, dass Intel sowohl an physikalische wie auch technische Grenzen gestossen ist. Das ist eigentlich normal, nun muessen die Forscher/Ingenieure halt ran um zu versuchen diese zu ueberwinden oder zu umgehen, bzw. andere Loesungen zu finden.

Trotzdem kann man nicht alles von der reinen Leistung des Prozessors abhaengig machen. Die heutigen Prozessoren verbrauchen sehr viel weniger Energie, die Busgeschwindigkeit ist wesentlich hoeher, ganz abgesehen von wesentlich leistungsfaehigeren Grafikkarten, die ja auch schon als Rechenknecht fuer bestimmte Aufgaben herangezogen werden.

Moores Law hat sich vielleicht erledigt, aber dafuer ist in anderen Bereichen (und das ist gut so) sehr viel erreicht worden.
 
Wenn Du ein neues MacBook benötigst wirst Du auch eines kaufen, egal was Apple verlangt und wie schnell oder nicht, es zu Deinem jetzigen Gerät ist.
Nee, eben nicht. Ich warte seit 2015 auf ein brauchbares MacBook und werde Apple eben keinen euro mehr zahlen.
Beruflich habe ich eine. Lenovo 460 glaube ich und noch ein 2011er 17“
Bei mir ist das Ende von Apples Markeing erreicht.
Ich würde 2500 Euro für den 1TB SSD mit Touchbar zahlen, aber der kostet 3999.
Da kann Apple machen was sie wollen. Ich bin nicht mehr ihr Kunde
Der lenovo hat unten abnehmbare akkus und mit vier kreuzschrauben tauscht man RAM und M2 SSD
 
Nee, eben nicht. Ich warte seit 2015 auf ein brauchbares MacBook und werde Apple eben keinen euro mehr zahlen.
Beruflich habe ich eine. Lenovo 460 glaube ich und noch ein 2011er 17“
Bei mir ist das Ende von Apples Markeing erreicht.
Ich würde 2500 Euro für den 1TB SSD mit Touchbar zahlen, aber der kostet 3999.
Da kann Apple machen was sie wollen. Ich bin nicht mehr ihr Kunde
Der lenovo hat unten abnehmbare akkus und mit vier kreuzschrauben tauscht man RAM und M2 SSD
Dann benötigst du so ein Gerät wohl nicht. Demnach ist die Aussage von @KumpelKalle doch richtig..?

Moores Law hat nicht zwingend was mit einer Leistungsverdopplung zu tun.

Ein Geekbench bzw. andere Benchmarks sagen auch nicht über alle Bereiche was aus. Spiel mal ein 4K60 H.265 Video ab und schau, ob dein 2017er oder dein 2012er eher ins Schwitzen gerät ;)
 
Moore's Law ist noch immer genau da, wo sie schon immer war. Es gibt da allerdings ein kleines Missverständnis diesbezüglich :)
In der Öffentlichkeit hat sich die Aussage, dass sich die Geschwindigkeit alle 18 Monate verdoppeln würde, als Moore's Law durchgesetzt. Tatsächlich hat Moore dies jedoch niemals so gesagt - er sagte, dass sich "die Anzahl der Transistoren alle 18 Monate" verdoppeln würde. Kleiner aber feiner Unterschied. Und da diese Verdopplung der Transistoren in der Frühzeit der CPUs tatsächlich auch einer Verdopplung der Leistung entsprach hat sich im Volksmund eben jene Analogie durchgesetzt. Schaut man sich die CPUs der vergangenen Jahre an, trifft die annähernde Verdopplung alle 18-24 Monate weiterhin zu, allerdings natürlich nicht zwingend von Modell zu Modell. Das ganze muss auf einer größeren Skala betrachtet werden und vor allem herstellerübergreifend. Zwar nicht mehr exakt so linear wie in der Vergangenheit aber noch immer nah genug dran. Leider veröffentlicht Intel seit Skylake keine offiziellen Angaben mehr zur Anzahl der Transistoren, daher können über 2015 hinaus keine zuverlässigen und auf Fakten basierenden Angaben mehr gemacht werden.

Für deine CPUs gelten grob überschlagen folgende Werte:

2007 Core 2 Duo Merom: ca. 230.000.000 Transistoren
2012 Ivy Bridge: zwischen 1.500.000.000 und 2.100.000.000 Transistoren
2017 Kaby Lake: geschätzt zwischen 4.300.000.000 und 5.600.000.000 Transistoren

Zum Vergleich: AMDs aktueller Epyc 32-Core Server-Prozessor hat knapp über 19.000.000.000 Transistoren, Intels aktuellen Xeon 22-Core Server-Prozessoren geschätzte 8.000.000.000 - 10.000.000.000 Transistoren.

Entscheidend für die mangelnde Entwicklung der Performance in den vergangenen 5-10 Jahren ist jedoch etwas ganz anderes: mangelnde Konkurrenz. Alles, was von AMD seit dem Athlon 64x2 kam, hat Intels Angebot um mehrere Jahre hinterher gehinkt und war somit alles andere als konkurrenzfähig. Intel hatte somit überhaupt keinen Druck und auch kein Interesse daran Millionen in R&D zu stecken - wofür auch? Es gab ja keine Konkurrenz. Mit Ryzen/Epyc sieht das allerdings plötzlich wieder ganz anders aus und die Jungs aus Santa Clara sind wieder aufgewacht.
 
Moore's Law hat ja mit der Geschwindigkeit erstmal nix zu tun, da geht es eher um die Integrationsdichte. Und die ist durchaus gestiegen (wenn auch nicht so deutlich wie früher). Daran haben aber alle Halbleiterhersteller zu knabbern, nicht nur Intel. Intel kämpft seit Ewigkeiten am 10nm-Prozess, und auch die anderen Verdächtigen haben noch nichts was praktisch wirklich besser wäre als die 14nm-Node von Intel. Die ISA (x86 vs. ARM vs. sonstwas) hat mit der Frage gar nichts zu tun.

Im Bereich der GPUs, wo eine Steigerung der Integrationsdichte im Wesentlichen auch 1:1 in eine Leistungssteigerung zu übertragen ist, kann man die Fortschritte durchaus sehen. Man Vergleiche einfach mal ein "Monster" aus dem Jahr 2012 (also GTX 680 oder HD 7970) mit einer Titan X (Pascal). :hehehe:

Bei CPUs ließe sich durch diesen Fortschritt höchstens die Anzahl der Cores erhöhen, im Consumer-Bereich ist der praktische Nutzen von mehr als 4-6 Cores aber recht überschaubar, daher nutzt Intel die Fortschritte eher zur Gewinnoptimierung (d.h. mehr Chips pro Wafer statt mehr Cores pro Fläche). Wobei AMD sie ja zum Glück kürzlich zu einem kleinen Upgrade gezwungen hat.
 
Ich würde 2500 Euro für den 1TB SSD mit Touchbar zahlen, aber der kostet 3999.
Ein Lenovo Thinkpad TS 470 kriegst Du für 2000 Euro sogar mit 2 TB SSD. Ich hatte so einen hier. Nur leider, leider: Das erste Gerät stürzte regelmäßig nach 2 Minuten ab, ohne dass ich irgendetwas getan hätte, das zweite funktionierte, aber die Lüfter gingen regelmäßig nach ein paar Minuten deutlich hörbar an und dann nicht wieder aus, auch ohne dass ich etwas gemacht hätte. Letzteres Problem hatte ich dann bei einem sehr schönen HP-Gerät ebenfalls (das war noch lauter und bei halb so großer SSD etwas teurer) und bei einem Dell ebenso. Nur das Surface-Book war still und leise und kostet ebenso viel wie ein MacBook...
 
Und in der Praxis sieht das ganze noch etwas düsterer aus, denn kaum eine Software nutzt bei einem Prozessor mit mehreren Kernen alle Kerne optimal aus. Das liegt aber nicht an schlechter Hardware, sondern daran, dass es sehr schwierig ist Software zu schreiben, die viele Kerne parallel vernünftig auslasten kann.
 
Moore ging von anderen, rein technischen Entwicklungen aus…

Fairer Weise muss man aber auch sagen, dass die Verdopplung der Transistoren (über mehrere Kerne) scheinbar endlos möglich ist, die bisher aber übliche Erhöhung der Taktgeschwindigkeit, bei gleichzeitig immer feineren Strukturen (7nm ab 2019…) aber an physikalische Grenzen stößt (die entstehende Wärme muss ja auch abgeführt werden, bei abnehmender Die-Größe je Leistungseinheit). Ein weiterer Aspekt ist der, dass die "Eine-für-Alles-CPU" mittlerweile Konkurrenz bekommt, GPUs übernehmen zunehmend Rechenoperationen, weil sie einiges erheblich fixer berechnen können.

Die reinen Benchmarks werden den vergleichbaren Geschwindigkeitsangaben nur noch bedingt gerecht, GPU als rechnende Operatoren über die Grafik hinaus, deutlich flottere Speicher (SSDs), die immer größere Datenmengen in kürzerer Zeit verschieben können, sich wandelnde Ansprüche an die Aufgaben (reine Geschwindigkeit beschleunigt eben nicht alle Aufgaben und Programme, Multitasking) , die sich im Wandel befindende, multicore taugliche Software etc. Rechner erledigen heute viele Aufgaben viel flotter, weil z.B. etwa Verzögerungen durch Speichern immer weiter reduziert werden, obwohl der Rechner laut benchmark nur wenig schneller wurde.

Vermutlich wird es zu einer sich diversifizierenden Anpassung an die Aufgaben kommen, der "Normal-User" nutzt einen neuen Standardrechner in der Regel nur zu 20% aus, "schneller" bringt hier nix. Andererseits kommen neue Aufgaben (wie VR) hinzu, die enorme Rechenleistung erfordern - auch z.B. bei Spielen (gamer basteln sich schon eine Weile "ihre" Kisten), wieder andere Aufgaben profitieren von schnellster Grafik usw. Da sehe ich bei Apple das / ein Problem, die Modularität gewinnt an Bedeutung. Das Apple dies ebenfalls erkannt hat, könnte man dem angekündigten, völlig überarbeiteten Konzept des neuen MacPro entnehmen - schaun mer ma was übrig bleibt.

Ich denke Moore's Law verliert an Bedeutung (nicht an Richtigkeit), wenn die Aufgaben insgesamt nicht schneller zu erledigen wären. Außerdem hat sich Moore eine Dreck um Fragen wie Effizienz und Energieoptimierung (Laufzeit) bei Laptops Gedanken gemacht. Wir heute aber schon ;)
 
Benchmark hin oder her, was Apple in (m)ein kleines 12" MacBook gequetscht hat ist einfach geil und wäre vor 5 Jahren undenkbar gewesen - von daher interessieren mich Benchmarks á la Geekbench nicht die Bohne. Jeder Rechner, besonders portable Geräte, sind wesentlich mehr als nur ein sturer Rechenknecht - und Geekbench bewertet "nur" den Rechenknecht. Kein Display, keine internen Lautsprecher, keine SSDs, keine Akkulaufzeit, kein Gewicht, keine Größe und und und... Einen Neukauf eines Laptops von einem Geekbench Ergebnis abhängig zu machen ist ziemlicher Unsinn - mal noch vorsichtig ausgedrückt.
 
Man stelle sich einmal vor, was wir für tolle Technik haben könnten, wenn die Geräte nicht immer noch einen Millimeter schmaler werden müssten. Ich war mit meinem letzten MacBook Pro 15" von 2007 oder 2008 top zufrieden. Hätte man diesen Formfaktor behalten, hätten wir heute astronomische Leistung und Akkulaufzeit. Und das Gerät war leicht und schmal genug.
 
...für Dich! Ich hätte keinen Bock auf Reisen mit einem 2007er 15" Klotz unterwegs zu sein. Jeder sieht den Fortschritt halt anders.
Du sollst auch kein 15er mit einem 12er vergleichen. Fair wäre höchstens ein 12er MacBook mit einem 12" PowerBook zu vergleichen.
 
Einen Neukauf eines Laptops von einem Geekbench Ergebnis abhängig zu machen ist ziemlicher Unsinn - mal noch vorsichtig ausgedrückt.

Naja... natürlich hast du recht.
Es ging mit auch nicht darum, hier mit einzelnen werten zu agieren, aber im großen und ganzen gab es in den letzten 5 jahren offensichtlich kaum fortschritt...

Aber wenn ich meinen rechner für angemessen geld erneuere mochte ich schon eine gewisse Mehrleistung dafür haben.
Und da fehlt mir halt eine zehnerpotenz. Ich warte nicht 5 jahre auf einen rechner der nur 30% schneller ist.
Da sollten eher 300% drin sein. (Zumindest sollte der tatsächliche wert näher an der 300 als an der 30 sein.)

Naja. Ich spare so letztlich einen haufen Geld.
Wird es halt in meinem fall einfach eine grössere ssd.
 
...die Frage ist ja auch, was soll man mit der ganzen Mehrleistung anfangen? In der Regeln langweilt sich doch die CPU eh den ganzen Tag nur. Mein 2012 MacMini reicht mir (!) von der Performance für mich (!) völlig aus - da gibt es derzeit gar keinen Grund etwas zu ändern. Mein 12"MacBook ist quasi der Nachfolger für mein 2010er MacBook c2d - und da liegen schon gefühlte Welten zwischen! (Größe, Display, Geschwindigkeit, Akkulaufzeit) Brauchst Du überhaupt eine soooo viel höhere Rechenleistung als das 2012er MBP?

Korrektur: 2007er MacBook c2d
 
Zurück
Oben Unten