Vorstellung des neuen Mac Pro ... Diskussion

geekbench ist sowieso fragwürdig

realistischer sind eher diese tests:

https://www.pugetsystems.com/all_articles.php

Mag gut sein, das dies realistischer als Geekbench ist, aber Geekbench ist der einzige Benchmark, den ich kenne, der zu so gut wie jeder CPU auf so gut wie jedem Betriebssystem Vergleichswerte hat.

Denn: Bei Macs spielt neben der CPU vor allem MacOs selbst ja noch eine entscheidende Rolle bei der Performance. Bei Grafikkarten ist der Effekt sogar noch um einiges stärker, wie wir beide wissen. Selbst auf dem Mac Pro 2019 performen Karten wie die RX580 und erst recht die Radeon 7 immer noch deutlich schlechter als z.B. unter Windows.
 
...und, wenn es, abseits von Metal, um eine praxisnahe Beurteilung der Grafik-Performance geht, halte ich die Unigine Benchmarks von Valley und Heaven für weit aussagekräftiger.

Hier mal die Ergebnisse von der GeForce 1070:

Anhang anzeigen 281109

Anhang anzeigen 281111

Wobei zum Vergleichen wichtig ist, genau die gleichen Einstellungen zu verwenden. Und auf jeden Fall Vollbild!

Da kann meine RX 480 natürlich nicht mithalten - rund 20 FPS weniger. Heaven/Valley stellt darüber hinaus vor allem die krassen DirectX/OpenGL - Unterschiede dar. Hier liegt der Crossplattform-Unterschied bei gut 30% zugunsten von DirectX. Und für Metal gibt's ja leider kaum brauchbare Benchmarks.

valley.png
heaven.png
 
Wirklich sehr beeindruckende Werte für den "kleinen"!
Ich vermute aber, das die CPU-Leistung bei lang anhaltenden Aufgaben irgendwann krass sinkt, da die Kühlung im Mini ja nun wirklich nicht das NonPlusUltra ist. Kannst du das bestätigen?

...beim i5 reicht die Kühlung im Dauerbetrieb gerade so um annähernd den Turbo zu halten, allerdings gehen mir dabei die Temperaturen am 100 °C - Limit auf die Nerven. Ich habe mal gemessen und geprüft, wie sich das absenken lässt:

https://www.macuser.de/threads/cpu-leistungsbegrenzung-im-dauerbetrieb.822113/
 
Zuletzt bearbeitet:
....
Somit wären AMD-CPUs für den Mac Pro 2019 perfekt geeignet gewesen, aber obwohl man über 2 Jahre bei Apple entwickelt hat, ist man "darauf nicht gekommen" und statt dessen bei Intel geblieben...

nein, sind sie nicht da apples boardlayouts vollkommen auf intel und mit(!) intel ausgerichtet ist
 
Ich wusste, dass mein 5.1er auch in der Kategorie Wärmeabstrahlung und Heizleistung locker in der modernen Liga mitspielt.:D
 
  • Gefällt mir
Reaktionen: Indio
Ich wusste, dass mein 5.1er auch in der Kategorie Wärmeabstrahlung und Heizleistung locker in der modernen Liga mitspielt.:D
Schade, dass wir nicht - wie die PC-Fraktion - übertakten können. Da wären noch ganz andere Heizkosten-Einsparungen drin!
 
  • Gefällt mir
Reaktionen: Lightspeed
Hier mal die openCL und Metal Geekbench Ergebnisse von meiner GTX 1080 im cMP.

Die Zahlen sehen nett aus sind aber ohne praktische Bedeutung, da der Apple openCL Compiler buggy ist und meine Real-World 3D Anwendungen unter openCL nicht funktionieren und die Metal2 Implementierung von Nvidia nicht vollständig ist.
cMP_gtx1080_metal.jpeg
cMP_gtx1080_openCL.jpeg
 
Das Problem ist wohl, dass "wir" gegen die physikalische Mauer laufen, 5 GHz , Leistungsverdoppelung alle 18 Monate ("Mooresches Gesetz"), Verdoppelung der Schaltkreisdichte funktioniert nicht mehr, dagegen kommt man nach bisheriger Kenntnis ein wenig mit Verdoppelung der Kerne an wobei wir wieder bei der Aufteilung und Zusammenführung über alle Kerne wären - eine Verdopplung der Zahl der Kerne führt mitnichten zu einer Verdoppelung der Rechenleistung!

Naja, das "Mooresche Gesetz" hat ja nichts mit der Leistung zu tun, sondern erstmal nur mit der Dichte integrierter Schaltkreise. Und da liegen "wir" seit 50 Jahren eigentlich ziemlich gut. Ok, aktuell Intel nicht so richtig, dafür läufts bei den anderen aber sehr gut.

Und die aktuellen Fachmeinungen sagen auch, dass das die Entwicklung in absehbarer Zeit nicht stoppen wird. Zwar wird man vermutlich innerhalb der nächsten ~10 Jahre die minimale Strukturbreite erreichen (sind ja so schon nur noch ein paar Atomlagen), danach ist allerdings geplant, die Dichte der Schaltkreise durch dreidimensionale Strukturen weiter zu erhöhen. Bei Speicher klappt das schon ganz gut.

Aber wie gesagt, hat nichts mit der Leistung zu tun, und erst recht nicht mit der Single-Thread-Performance.
 
  • Gefällt mir
Reaktionen: Dextera und ElKapitän
Naja, das "Mooresche Gesetz" hat ja nichts mit der Leistung zu tun, sondern erstmal nur mit der Dichte integrierter Schaltkreise. Und da liegen "wir" seit 50 Jahren eigentlich ziemlich gut. Ok, aktuell Intel nicht so richtig, dafür läufts bei den anderen aber sehr gut.

Und die aktuellen Fachmeinungen sagen auch, dass das die Entwicklung in absehbarer Zeit nicht stoppen wird.

Da bin ich aber ganz anderer meinung
Moore sprach von einer Verdoppelung der Integrationsdichte der Schaltkreise aller 12 Monate.
Später als das nicht mehr zu halten war, wurden daraus offiziell 18 Monate, inzwischen wird auch
gerne von 24 Monaten gesprochen.
Die Verlängerung der Zykluszeiten sind ein gutes Indiz dafür dass das "Gesetz" überholt ist.

Moore selbst hat inzwischen schon öffentlich erklärt dass sein Gesetz seine Gültigkeit verloren hat.
Ähnliches hat auch der ceo von nvidia verlutbaren lassen.
Momentan geht man davon aus dass aus physikalischen Gründen bei 3-5nm Strukturbreite schluss ist,
Intel beisst sich seit Jahren am 10 nm Prozess die Zähne aus, auch wenn andere bereist in 7 nm Strukturbreite fertigen.

Intel hat 2014 mit dem Broadwell die 14 nm Strukturen eingeführt, heute 5 Jahre später hängen sie
im Desktopbereich immer noch da fest.
 
  • Gefällt mir
Reaktionen: wegus
Naja, das "Mooresche Gesetz" hat ja nichts mit der Leistung zu tun, sondern erstmal nur mit der Dichte integrierter Schaltkreise. Und da liegen "wir" seit 50 Jahren eigentlich ziemlich gut. Ok, aktuell Intel nicht so richtig, dafür läufts bei den anderen aber sehr gut.

Und die aktuellen Fachmeinungen sagen auch, dass das die Entwicklung in absehbarer Zeit nicht stoppen wird. Zwar wird man vermutlich innerhalb der nächsten ~10 Jahre die minimale Strukturbreite erreichen (sind ja so schon nur noch ein paar Atomlagen), danach ist allerdings geplant, die Dichte der Schaltkreise durch dreidimensionale Strukturen weiter zu erhöhen. Bei Speicher klappt das schon ganz gut.

Aber wie gesagt, hat nichts mit der Leistung zu tun, und erst recht nicht mit der Single-Thread-Performance.

Meinung? Fakt? Das Problem ist ja nicht nur ein Theoretisches! Fakt ist, dass die Effizienz nicht mehr stimmt, die Kosten zur Leistungssteigerung stehen schon eine Weile nicht mehr im Verhältnis zum Aufwand in der Produktion. Man kann zur Zeit noch mit immer mehr Kernen einen Leistungsfortschritt erreichen aber auch dem sind technische Grenzen gesetzt (die Integrationsdichte hat bei Rechnerhöchstleistungen wie z.B. Simulation chaotischer Phänomene oder Strömungsberechnungen schon vor knapp 10 Jahren eine Stop erreicht, die Zeit als Faktor aus finitem Volumen (des "Die") und Iteration beim Lösen numerischer Probleme hat eine Grenze erreicht, vermutlich eine fixe.

Auch die Stapeltechnik die bei Speicherbausteinen keine große Hürde darstellt, ist im Prozessor allein schon wegen der Wärmeentwicklung kaum zu beherrschen, schon jetzt werden "einlagige" Mehrkerner auch deswegen heruntergetaktet. Die single-thread(oder Core-)-performance ist aber bei Mehrkernen konstruktionsbedingt abhängig vom Gesamtsystem - die Kniffe die aufgewendet werden müssen um einen "turbo-boost" für single-thread Aufgaben zu erreichen sind erheblich - auch bei den Kosten. Bewegung erzeugt Hitze, 5 GHz Bewegung bei 7 nm stellt so etwas wie eine Grenze dar. Theoretisch können 3 nm Strukturen erreicht werden, allerdings bei weiter sinkender Taktgeschwindigkeit, denn die Hitzemenge wird auch durch das Material und die Energiedichte je Volumeneinheit limitiert.

Mit der aktuellen Chipstrategie kommt man nicht weiter (kleiner, schneller, dichter), was es für Alternativen geben wird ist noch nicht klar, es zeichnen sich noch nicht einmal hoffnungsvolle Kandidaten für eine Revolution ab. (Auch das ist einer der Gründe, weswegen so viel Geld in Quantenrechner investiert wird, die könnten nämlich genau jene Probleme die bei 3-5nm Strukturen auftreten umgehen, die Probleme sind nämlich auch quantenmechanischer Natur (Tunnelströme)

Ich bin kein Hellseher und auch von der allerneuesten Forschung ein gutes Stück entfernt, den vorliegenden Arbeiten zum Stand der Dinge kann man aber gern heranziehen um diese meine Aussagen zu überprüfen. Wo z.B. stecken die "Übertakter" etwa derzeit in ca. fest? Und wo steckten sie vor 10 Jahren? Selbst raffinierte Wasserkühlungen reichen hier oft nicht mehr und unter Dauerlast hält das keine CPU aus.

Wie dem auch sei, es ist erstens eine theoretische Erörterung und zweitens laufen CPUs nicht im luftleeren Raum allein vor sich hin, die Anbindung an die Peripherie ist bei bestimmten Geschwindigkeits und Größenwerten ein exponentieller Fakor (= unwirtschaftlich)

edit: 7nm sind heute allenfalls im RISC Bereich und kleineren Einheiten möglich.
 
Natürlich ist "Zukunftsgerede" niemals ein Fakt.

Dass es endlos viele Herausforderungen gibt ist mir klar - es gibt aber auch viele Lösungsansätze, auch wenn natürlich noch nichts serienreif ist. Vielleicht erlauben uns Mikrofluid-Kanäle in CPUs in 10 Jahren eine Vielzahl an zusätzlichen Lagen, wer weiß.

Die Roadmaps der relevanten Hersteller sind aktuell extrem ambitioniert, Intels Roadmap bis 2029 heißt "In Moore We Trust"...
 
Heaven/Valley stellt darüber hinaus vor allem die krassen DirectX/OpenGL - Unterschiede dar.
Was ja merkwürdig ist, ist, dass von den Unigine-Apps bei euch die Speicherkapazität korrekt ausgelesen wird. Bei mir steht da sowohl bei der RX 570 als auch bei der GTX 1070 jeweils 256 MB.
 
Heaven/Valley stellt darüber hinaus vor allem die krassen DirectX/OpenGL
OpenGL ist ja auch nicht mehr aktuell und soll sogar in zukünftigen Versionen von macOS entfernt werden. Der Nachfolger Vulkan würde eine bessere Performance als DirectX bieten, wird von Apple aber nicht offiziell unterstützt.

edit: 7nm sind heute allenfalls im RISC Bereich und kleineren Einheiten möglich.
Und bei AMD ;). Die Zen2 basierenden Prozessorenkerne (Ryzen/Threadripper 3000 Serie, Epyc Rome) werden in 7nm gefertigt und genau das ist das Problem für Intel.
 
Was ja merkwürdig ist, ist, dass von den Unigine-Apps bei euch die Speicherkapazität korrekt ausgelesen wird. Bei mir steht da sowohl bei der RX 570 als auch bei der GTX 1070 jeweils 256 MB.

Das hab ich hier unter HS auch. Ist ein neues SbO Feature das glaube ich seit SU 004 mit kommt :)
 
  • Gefällt mir
Reaktionen: flyproductions
Und bei AMD ;). Die Zen2 basierenden Prozessorenkerne (Ryzen/Threadripper 3000 Serie, Epyc Rome) werden in 7nm gefertigt und genau das ist das Problem für Intel.
... wobei man dazu sagen muss, dass TSMCs 7nm-Prozess nicht mit dem vergleichbar ist, was Intel in der Pipeline hat. TSMCs 7nm entspricht von der Logikdichte her eher Intels 10nm-Prozess. Allerdings hat TSMC das ganze deutlich besser im Griff, die können damit ja schon richtig große Dies mit viel Leistung in großen Stückzahlen fertigen, Intel schafft in 10nm bislang ja nur so ein paar traurige Dual-Cores mit 15W, oder so.
 
Meinung? Fakt? Das Problem ist ja nicht nur ein Theoretisches! Fakt ist, dass die Effizienz nicht mehr stimmt, die Kosten zur Leistungssteigerung stehen schon eine Weile nicht mehr im Verhältnis zum Aufwand in der Produktion. Man kann zur Zeit noch mit immer mehr Kernen einen Leistungsfortschritt erreichen aber auch dem sind technische Grenzen gesetzt (die Integrationsdichte hat bei Rechnerhöchstleistungen wie z.B. Simulation chaotischer Phänomene oder Strömungsberechnungen schon vor knapp 10 Jahren eine Stop erreicht, die Zeit als Faktor aus finitem Volumen (des "Die") und Iteration beim Lösen numerischer Probleme hat eine Grenze erreicht, vermutlich eine fixe.

Auch die Stapeltechnik die bei Speicherbausteinen keine große Hürde darstellt, ist im Prozessor allein schon wegen der Wärmeentwicklung kaum zu beherrschen, schon jetzt werden "einlagige" Mehrkerner auch deswegen heruntergetaktet. Die single-thread(oder Core-)-performance ist aber bei Mehrkernen konstruktionsbedingt abhängig vom Gesamtsystem - die Kniffe die aufgewendet werden müssen um einen "turbo-boost" für single-thread Aufgaben zu erreichen sind erheblich - auch bei den Kosten. Bewegung erzeugt Hitze, 5 GHz Bewegung bei 7 nm stellt so etwas wie eine Grenze dar. Theoretisch können 3 nm Strukturen erreicht werden, allerdings bei weiter sinkender Taktgeschwindigkeit, denn die Hitzemenge wird auch durch das Material und die Energiedichte je Volumeneinheit limitiert.

Mit der aktuellen Chipstrategie kommt man nicht weiter (kleiner, schneller, dichter), was es für Alternativen geben wird ist noch nicht klar, es zeichnen sich noch nicht einmal hoffnungsvolle Kandidaten für eine Revolution ab. (Auch das ist einer der Gründe, weswegen so viel Geld in Quantenrechner investiert wird, die könnten nämlich genau jene Probleme die bei 3-5nm Strukturen auftreten umgehen, die Probleme sind nämlich auch quantenmechanischer Natur (Tunnelströme)

Ich bin kein Hellseher und auch von der allerneuesten Forschung ein gutes Stück entfernt, den vorliegenden Arbeiten zum Stand der Dinge kann man aber gern heranziehen um diese meine Aussagen zu überprüfen. Wo z.B. stecken die "Übertakter" etwa derzeit in ca. fest? Und wo steckten sie vor 10 Jahren? Selbst raffinierte Wasserkühlungen reichen hier oft nicht mehr und unter Dauerlast hält das keine CPU aus.

Wie dem auch sei, es ist erstens eine theoretische Erörterung und zweitens laufen CPUs nicht im luftleeren Raum allein vor sich hin, die Anbindung an die Peripherie ist bei bestimmten Geschwindigkeits und Größenwerten ein exponentieller Fakor (= unwirtschaftlich)

edit: 7nm sind heute allenfalls im RISC Bereich und kleineren Einheiten möglich.

Das schafft halt der Platzhirsch Intel grade nicht. Wenn man sich die aktuellen AMD Prozessoren mal anschaut sieht man, dass es eben doch möglich ist, trotz deutlich gesteigerter Leistung mit höherer Effizienz zu arbeiten (sinkender Stromverbrauch in Relation zur Erhöhung der Kerne) und dabei die Anzahl der Kerne ebenfalls noch zu erhöhen.

Ein Mac Pro mit Threadripper CPUs, das wärs ... Wobei der "normale" Ryzen 39XX ja den unteren Konfigurationen des Mac Pro ja schon ordentlich Beine machen dürfte...
 
Wo z.B. stecken die "Übertakter" etwa derzeit in ca. fest? Und wo steckten sie vor 10 Jahren?
Warum denn nicht gleich die schöne Gelegenheit nutzen, ein kleines Jubiläum zu feiern?

:cake:

So jährt es sich doch just in diesen Tagen zum 20. Male, dass die deutsche Firma Kryotech mit dem SuperG einen Rechner vorgestellt hat, in dem ein (tiefgekühlter) Athlon erstmalig die magische 1GHz-Schallmauer durchbrochen hat! Ich erinnere mich noch gut daran, was das damals für eine Sensation war.

Natürlich klar, dass es solchen Wahnsinn nie in ganz normalen Computern geben wird!

:crack:
 
Zuletzt bearbeitet:
Bei TSMC und Intel scheinen 7nm aber nicht gleich zu sein ;). Die Ryzen bedienen sich auch ein paar "Tricks" um z.B. mit geringerer Dichte die Wärmeableitung hin zu bekommen - am Ende bringt die 7nm Struktur dann nicht wirklich eine Verkleinerung… aber zumindest schaffen sie es überhaupt in dieser Strukturgröße ohne nennenswerten Ausschuss zu produzieren, Intel schafft nicht einmal dies in kleinen Stückzahlen.

Generell kann man sagen, dass Asien hier die Nase vorn hat, schaut man sich z.B. Technik für das 5G Mobilfunknetz an, wird es schwer ohne Huawei (auch und viel 7nm Technik) ordentliche Stückzahlen zu akzeptablen Preisen zu bekommen. Ein Boycott ärgert die Chinesen zwar, trotzdem können sie aus technischer Sicht relativ gelassen reagieren, der Vorsprung ist ordentlich. Hat jetzt nicht unmittelbar mit dem MacPro zu tun, ABER ich denke der MacPro wird mit bestehender Technik eine Weile kaum zu verbessern sein.
 
Zurück
Oben Unten