Exakt das ist der Punkt. Es gibt in der Realität einfach viele Probleme, die sich nur sequentiell lösen lassen, bei denen man höchstens kleinere Teile (eingeschränkt) parallelisieren kann. Wenn man da nun 100 Cores draufschmeißt bringt das gar nichts.
Genau. Wobei es dafür dann auch wieder eigene Hardware bzw. im SoC integrierte Dinge wie die neural engine gibt, wo der Code zB mehrmals läuft, aber die Ergebnisse der vorigen Läufe benötigt. Obwohl ein Run vielleicht seine Arbeiten parallelisiert abarbeiten kann, können nicht mehrere Runs gleichzeitig stattfinden.
Manchmal ist es aber auch die spezifische Implementation, die das verhindert. Es gibt beispielsweise das Spiel Factorio, das nur auf einem Core läuft und sehr beliebt ist, immer noch in Entwicklung. Leider wurde damals so implementiert, dass eine Verbesserung jetzt nicht mehr möglich ist, ohne das Spiel neu zu programmieren. Da weißt du: Das Spiel gibt es so und nur so, und wenn es denn einmal auf ARM-Macs laufen wird, dann niemals so gut wie bei CPUs mit besserer Singlecore-Performance.
Der technische Fortschritt muss schon sein, das verstehe ich. Aber das führt auch dazu, dass so ein Mac für mich immer weniger universell einsetzbar ist. Ich kann mir vorstellen, dass ich in 10 Jahren ein Macbook nur mehr für Tätigkeiten unterwegs nutze, wo ich bei maximaler Bildschirmhelligkeit und 50% CPU-Last durch einen Arbeitstag kommen will, aber selbst mein neuestes 2020er-MBP nach ca. 4 Stunden wieder an die Steckdose muss.
Dann habe ich schon einen Benefit von neuen ARM-basierten Geräten, aber ein universeller Computer ist das dann nicht mehr. Eher ein größeres iPad...