MacPro 3.1 lässt keine Installation zu

Nur aus reinen Interesse kannst du Cb 15 auf einen 3.1 ausführen (os ist egal) Damit ich leitungsmäßig einordnen kann.
Hier also mal die versprochene „Umrechnungstabelle“:
Mein Dual 5,1 mit RX 6800 in sämtlichen noch einigermaßen gebräuchlichen Versionen der Haupt-Protagonisten Cinebench und Geekbench.

Cinebench

R15
Multi: 1.580
Single: 109

R20
Multi: 3.231
Single: 99 (?)

R23
Multi: 8.776
Single: 570


Geekbench

4
Multi: 27.767
Single: 3.011
Metal: –

5
Multi: 6.948
Single: 673
Metal: 118.415

6
Multi: 4.469
Single: 597
Metal: 145.957


Das sollte sich ja dann, von den Verhältnissen her, auch auf die Ergebnisse anderer Rechner übertragen lassen.

Wie man sieht, ist die Single-Core-Performance der Xeons für heutige Verhältnisse dann doch einigermaßen unterirdisch. Gut, nicht ganz so unterirdisch, wie es der Cinebench R20 Wert vermuten lässt. Dass scheint unter Monterey irgendwie nicht mehr korrekt zu funktionieren. Unter HS war der noch zumindest mal noch über 200, was wohl eher die tatsächlichen Verhältnisse abbildet. Sieht man ja auch an den R23-Werten.

OpenGL hab ich mit Cinebench nicht getestet. Das kann man sich wirklich sparen! Die Ergebnisse sind völlig unplausibel. Wenn man wissen möchte, was die Grafikkarte kann, nimmt man halt die Unigine-Tools Heaven und Valley.
 
Bin heute auch mal zum Messen gekommen, Cinebench R20, OCLP 0.6.7 in Voreinstellung

5,5% Differenz zwischen 10.14.6 und 12.6.7 bei einem Dual Mac Pro 5,1 mit zwei X5680

habe nur eine Messung durchgeführt, brauche die Kiste für etwas anderes noch. Habe aber darauf geachtet möglichst wenig Prozessorlast zu haben im Messmoment.

Monterey wurde gerade neu aufgesetzt, hatte aber keine nennenswerte Prozessorlast. GPU war eine RX580

Das Mojave ist schon länger installeirt.

12.6.8 3088
3088 12x3.33.png


10.14.6 3259
3259 12x3.33.png
 
Klar! Deshalb gibt es ja auch praktisch keine Unterschiede zu High Sierra, wo die Karte volle Treiberunterstützung hat.

Den OpenGL-Test von Cinebench allerdings kann man getrost vergessen. Da schneidet eine GTX 1080 schon mal gerne nur minimal besser ab als die „zu wenig zum leben, zu viel zum sterben“-Serienausstattung. Wieso, weiß ich nicht.
Wirklich wissen wäre auch bei mir zu viel des Guten, aber ich vermute einfach mal, dass das daran liegt, dass raytracing früher zumindest eher eine Angelegenheit der CPU war. Wobei ich da achon Unterschiede feststelle. Auf meinem 3,1er mit High Sierra dümpelt die verbaute HD 5770 bei ca. 33 FPS im OpenGL Test, während ein ähnlich ausgestatteter MP mit El Capitan auf 55 FPS kommt. Oder war es Sierra? Muss ich daheim nochmal nachschauen.
 
Der gpu test ist so anspruchslohs das moderne Grafikkarten gar nicht ausgelastet werden können bevor die cpu limitiert. Das problem tritt bei vielen Alten Benchmarks und Spielen auf.
 
  • Gefällt mir
Reaktionen: flyproductions
aber ich vermute einfach mal, dass das daran liegt, dass raytracing früher zumindest eher eine Angelegenheit der CPU war.
Gab es zu Zeiten einer 5770 überhaupt schon Raytracing?

Was mir gestern gar nicht aufgefallen war: Sowohl R20 als auch R23 haben überhaupt keinen OpenGL Benchmark mehr. Das kommt dann wohl nicht von ungefähr.

R15 habe ich gerade mal laufen lassen. Da komme ich auf 60.29 fps. ...mit einer Karte, die, nach dem Relative-Performance-Chart auf TechPowerUp, bei 115% einer RTX 2080ti und 1.511%(!) einer HD 5770 liegt! 😂
 
Raytracing gibt es seit ewigkeiten. HW raytracing aber erst seit der den nvidia 2xxx Karten. Echtzeit raytracing gibt es in cb 15 auf nicht.
 
Zurück
Oben Unten