Nun darf ich auch bei den grossen Jungs mitspielen, endlich einen 5.1

Habe nur 4Gig Riegel zu Hause. Mal schauen, ob ich morgen die ollen Riegel wieder dazu packe, aber den Mac mehrmals am Tag, wenn es nicht sein muss zu öffnen,...mag ich nicht.
 
Musst auch nicht, ist der Nachteil am Dual, beim Single kommst leichter ran.
 
hier sieht man sehr schön das die 90er CPUs jetzt den 80ern nicht davon rennen.
wobei meine kiste seit 0530 läuft und während des tests auch 4 programme liefen.

Screenshot 2021-12-29 at 18.19.00.jpg
 
Ich hab hier einen der ist vom Prozessor genau ein Drittel davon, ein 3.46er QuadCore mit 48GB Ram im Triple Channel (3x16),
der Vergleich könnte spannend werden, allerdings läuft der unter Monterey.

Theoretisch sollte Single-Core etwas höher sein, weil kein Overhead durch zwei Prozessoren und weil der Vierkerner länger auf maximaler Frequenz bleibt. Multi-Core dürfte ein Drittel von zwei Six-Cores sein.



Screenshot 2021-12-29 at 19.46.59.png
 
Danke für eure Ergebnisse. Bestätigt mich dass ich mich für den X5675 entschieden habe. Sollte ich mal günstig einen Dual, oder zumindest ein Dual Board bekommen dann wird wieder der X5675 (oder bei gutem Preis der X5680) verbaut. Der verlangte Aufpreis für den X5690 steht für mich in keinem Verhältnis. So groß ist der "Haben-wollen-Faktor" dann doch nicht :)

Bildschirmfoto 2021-12-29 um 21.32.55.png
 
Hehehe...Geekbench-Olympiade! :crack:

Aber ist sowas, mit den Benchmarks. Ich hatte in Geekbench z. B. fast durch die Bank höhere Scores in den Ram-Tests mit Quad-Rank-Riegeln, die nur mit 1066 laufen, gegenüber den Dual-Ranks, die mit 1333 laufen. Weil sie eben eine kürzere Latenz haben. Merken tut man davon nix!

Und so scheinen mir auch die um die 5% „Verlust“ durch das Versemmeln von Triple-Channel irgendwie realistischer als 20 oder mehr. Kann es leider nicht probieren, da ich nicht genug gleiche Riegel habe. Oder kann man bei einem Dual zwischen den Prozessoren mischen? Also eine Sorte Ram an dem Einen und eine andere Sorte an dem Anderen?
 
Ja, finde klasse wie bunt und vielfältig der Thread rund um das alte Maschinchen bis jetzt geworden ist. :)
(y)
 
Ich war auch erschrocken wie viel im Multicore Score der Wert beim Triple Channel ausmacht. Aber das sind ja nun 24 Threads bei einem Dual 6 Kerner. Da haut das wohl sehr rein.

Wer meine Posts verfolgt merkt dass ich sehr selten bis nie Benchmarks poste. Mir gehts auch viel mehr um die Benutzbarkeit wie um Details. Wenn mir jemand mit zu vielen Werten kommt und dabei punkten will ist meine Standard Antwort: ist mir egal.

Ich weiss auch nicht auswendig wie viel Leistung genau mein Auto hat oder bei welcher Drehzahl mein Mopped das höchste Drehmoment hat. Genug.., das reicht mir.

Aber wie will man sonst, außer mit Zahlen das jetzt erfassen. Wenns um Speicherbandbreite geht.
 
  • Gefällt mir
Reaktionen: rembremerdinger, Dorena Verne und dg2rbf
Wie ist das denn jetz? War eine ernst gemeinte Frage. 😉

Sind die beiden CPUs mit ihren jeweiligen Speicherbussen soweit unabhängig voneinander, dass sich die Empfehlung, nur eine Sorte Speicher zu verwenden, jeweils nur auf den zu einer CPU gehörenden Speicherbus bezieht? Dann könnte ich nämlich mal selbst ausprobieren, wie das ist, wenn ich den vierten Slot jeweils auch belege.
 
Ich vermute dass das unabhängig ist, der Speichercontroller steckt in der CPU persönlich. Auch die Spannungswandler sind zwei mal vorhanden.

Inwieweit man das nachher ausmessen kann wenn nur ein Prozessor Triple Channel macht muss man probieren.

Gefühlsmäßig würde ich keine PC3L und keine PC3 mischen. Also nicht 3xPC3 auf A und 3xPC3L auf B
 
  • Gefällt mir
Reaktionen: flyproductions und dg2rbf
Gefühlsmäßig würde ich keine PC3L und keine PC3 mischen. Also nicht 3xPC3 auf A und 3xPC3L auf B
Vielleicht probiere ich es einfach mal. Viel kaputt gehen kann ja nicht. Zumindest der Takt muss aber ja einheitlich sein. Dass heißt, es wird wohl der des „langsameren“ Speichers genommen.
 
Zuletzt bearbeitet:
Ja, wenn einer der Speicher langsamer ist oder eine inkompatible Organisation hat (z. B. 4R) dann wird auf 1066 oder gar durch quad Rank auf 800 runtergetaktet.
 
Ja, wenn einer der Speicher langsamer ist oder eine inkompatible Organisation hat (z. B. 4R) dann wird auf 1066 oder gar durch quad Rank auf 800 runtergetaktet.
Zu den Taktraten kann ich Folgendes sagen:

Ich habe zwei Sorten von Speicher. Einmal Quad-Rank (4R)...

M393B2K70DMB-YH9, Label 1.JPG


...taktet bei Bestückung der ersten drei Steckplätze mit 1066 MHz, bei Bestückung aller vier Slots mit 800 MHz.

Und einmal Dual-Rank (2R)...

M392B2G70DM0-YH9, Label.JPG


...taket bei Bestückung der ersten drei Slots mit 1333 MHz. Viererbestückung hatte ich da nicht probiert. Ich vermute mal, der Takt bleibt bei 1333. Kann aber auch sein, dass er auf 1066 heruntergeht.

Die im Durchschitt besseren bzw. im Einzelfall eher am oberen Rand der Streuung liegenden Memory-Scores in Geekbench hatte ich mit den 1066 taktenden Modulen. Logisch lässt sich das dadurch erklären, dass die CAS Latency bei 1066 bei 7 und bei 1333 bei 9 liegt. Rein rechnerisch ist die Reaktionszeit des Speichers bei einem Takt von 1066 also sogar minimal „schneller“, da 7 Takte bei 1066 MHz eben nicht so „lange“ dauern wie 9 bei 1333 MHz.
 
Zuletzt bearbeitet:
ein Versuch ist es wert die zwei Paare in Slot 3/4 und 7/8 zu stecken weil die verschaltet werden.
 
Ich unterbreche eure spannende Unterhaltung mal kurz mit einer Frage. Leider geht meine verbaute Nvidia GTX 980TI ja nur bis High Sierra.
1. Ist bekannt, ob da in Sachen opencore und Nvidia was in Arbeit ist?
2. Welche bezahlbare AMD wäre zumindest gleichwertig?

Ah, downgrade mit einer Kepler möchte ich vermeiden.
 
nein, NVIDIA ist draussen
vorallem da es ab HS auch keinen treiber mehr von NVIDIA für den mac gibt,
den man irgendwie einbinden könnte.

mit monterey sind auch die kepler karten erledigt, und auch hier werden
sie durch nachinstallieren der alten bigsur treiber keine bäume mehr ausreissen.

manchmal findet man eine sapphire pulse RX580 8GB so um 300.- (also knapp doppelter neupreis),
im netz und damit auch die sinnvollste karte vom preis/leistungsverhältnis.
 
  • Gefällt mir
Reaktionen: Freeez, dg2rbf und Dorena Verne
Danke Indio, werde dann vorerst wohl auf High Sierra bleiben. Das Geld, was ich für den 5.1 plus eben auch dem CPU-Upgrade hingelegt habe, war schon sowas wie eine Schmerzgrenze. Nochmals 300 € für eine RX, glaube das wird nun dann echt zu heftig.
 
  • Gefällt mir
Reaktionen: flyproductions und dg2rbf
Danke Indio, werde dann vorerst wohl auf High Sierra bleiben.
Ja, erstmal auf HS bleiben war auch meine Art, mit der Problematik umzugehen. Und das, obwohl ich eine RX570 hier herumliegen hatte, für die ich dereinst bei Jacobs 152 Euro bezahlt hatte. Die GTX 1080 (wahlweise) mit Mac Bootscreen mag ich dann doch lieber. Wobei die RX ja jetzt in der Big Sur- / Monterey-Testmaschine doch noch eine sinvolle Verwendung gefunden hat.

Allerdings habe ich immernoch nicht die allerletzte Hoffnung aufgegeben, dass doch noch ein Mac-Treiber zumindest mal für die Turing-Generation kommt. Vielleicht ja auch irgendwann aus Russland. Momentan eilt’s ja ned. Man bekommt eh keine Karten.
 
Ich unterbreche eure spannende Unterhaltung mal kurz mit einer Frage. Leider geht meine verbaute Nvidia GTX 980TI ja nur bis High Sierra.
1. Ist bekannt, ob da in Sachen opencore und Nvidia was in Arbeit ist?
2. Welche bezahlbare AMD wäre zumindest gleichwertig?

Ah, downgrade mit einer Kepler möchte ich vermeiden.


vereinzelt gibt's die RX560 für einigermaßen moderates Geld (so um die 150), sind aber eher Low End.

Eine andere Möglichkeit wäre die 680 in den 5.1 stecken, dann geht's bis Big Sur. Ob jetzt Monterey sein muss, darüber kann man streiten. Ich mach's auf keinen 5.1 wenn ich nicht ausdrücklich soll.

Nur für Testzwecke könnte die 980 über den Framebuffer laufen wenn RefindPlus oder OpenCore den GOP Treiber laden kann.

Das reicht zum Probieren und was hin und herkopieren, aber arbeiten kann man ohne Treiber nicht wirklich.

Abwärtskompatibilität ist auch so ein Thema, ich nehm' ja auch deshalb so gerne die Kepler weil die von 10.8 bis Big Sur laufen. Drunter eben mit Framebuffer.

Eine RX5x0 läuft auch mit Framebuffer, aber alles unter Sierra läuft dann nur extrem zäh.

Gerade erst Mavericks mit einer RX560 betrieben (über OpenCore den GOP Treiber geladen). Ist fast nicht bedienbar, für's Terminal zum Blessen hat's gelangt.
 
Ja, aber der Mac ist ja auch zumindest Abends im vollen Einsatz und die GTX 980TI (NICHT die einfache GTX 980, um die würde ich nicht trauern) läuft ja gut unter High Sierra. Ein Bootscreen hat sie ja auch. Die GTX 680, das Monster mit den 3 Slots von Asus, soll in meinem 3.1 verweilen.:)
 
Zurück
Oben Unten