Bester Intel-Mac für Gaming

Na, Haar in der Suppe gefunden? Du schreibst auch einiges falsch, was bereits 1996 reformiert wurde, ist aber sicher ein Statement.
Ich muss keine Haare suchen und finden - da wachsen von gaz alleine genügend.

Es ist schon absurd wenn jemand eine bestimmte Anorderung hat, und dann musst mit irgendso einem Betonkopf diskutieren warum Linux nicht in Frage kommt.
Wenn ich lese Asdobe-Apps, dann ist Linux draussen. Punkt.
 
der Einfluss der GPU auf die Gesamtperformance in Games wohl weit höher ist als der der CPU.
Das habe ich mit "Die CPU hat keinen nennenswerten Einfluss" interpretiert. Mein Fehler ;)
Und das geben zumindest die Time Spy Results etwa aus #146 und #109 halt absolut her.
Nicht wirklich denn Time Spy testet GPU und CPU unabhängig voneinander. In Spielen müssen dann aber beide schon zusammen arbeiten. An dem oben genannten Test/Versuch eine 4090 in einem 15 Jahre alten Rechner mit dem i7-920 (oder war ein 940er drin?) laufen zu lassen mit Cyberpunk 2077 zeigt das sehr schön. Aufgrund solcher Benchmarks abzuschätzen, wie die Performance einer solchen Kombination sein wird, ist schon schwierig und muss man wohl für jedes Game neu bewerten. Keine Frage, ein 5.1er mit aktueller GPU wird schon ne ordentliche Zockermaschine sein ;)
 
Es ist schon absurd wenn jemand eine bestimmte Anorderung hat, und dann musst mit irgendso einem Betonkopf diskutieren warum Linux nicht in Frage kommt.
Wenn ich lese Asdobe-Apps, dann ist Linux draussen. Punkt.
wovon redest du? Falscher thread? Hier redet doch niemand über Adobe und auch nicht über Linux.
 
Nicht wirklich denn Time Spy testet GPU und CPU unabhängig voneinander. In Spielen müssen dann aber beide schon zusammen arbeiten.
Tatsächlich? Ich bin eigentlich davon ausgegangen, dass gerade Time Spy die Game-Performance doch relativ „lebensnah“ abbildet. Schließlich geben die (für zahlende User) doch sogar eine „geschätze Spieleleistung“ aus.

Natürlich kann das sich nicht auf alle Games beziehen. Das schaffen ja nicht einmal die Games selbst. So gibt es ja Games die klar AMD, und andere, die ebenso klar nVIDIA bevorzugen. Bei allem, was massiv auf Raytracing setzt, gucken halt selbst höherpreisige AMD GPUs in die Röhre. Und in neuen Releases wie z. B. „The Last of Us“ wäre der knappe Vorsprung der 3080 gegenüber meiner 6800 vermutlich relativ schnell aufgebraucht...weil sie eben „nur“ 10GB Speicher hat.
 
Tatsächlich? Ich bin eigentlich davon ausgegangen, dass gerade Time Spy die Game-Performance doch relativ „lebensnah“ abbildet. Schließlich geben die (für zahlende User) doch sogar eine „geschätze Spieleleistung“ aus.
Das gilt halt unter der Prämisse, dass GPU und CPU aus ähnlichen Generationen stammen und nicht ~10 Jahre auseinander sind ;)
 
Das gilt halt unter der Prämisse, dass GPU und CPU aus ähnlichen Generationen stammen und nicht ~10 Jahre auseinander sind ;)
Ist nicht CPU-Leistung gleich CPU-Leistung, egal, aus welcher Generation sie stammen? Zumindest für GPUs gilt das doch. So liegt z. B. eine 6(!) Jahre alte GTX 1080ti auch heute noch in etwa auf Augenhöhe mit einer brandneuen RTX 4060 und wird zumindest der 8GB-Version in speicherhungrigen Games sogar überlegen sein.
 
Und wenn deine tolle GPU auf die CPU warten muss guckste dumm aus der Wäsche. Genau das zeigte der obige Test von Hardwaredealz. Ne geile Grafikkarte eingebaut und die langweilt sich weil die CPU nicht hinterher kommt. Keine Ahnung warum man das nicht versteht. Ich hab schon wieder das Gefühl, dass wieder einmal jedes Wort auf die Goldwaage gelegt wird...mir wirds jetzt zu blöd.
 
Und wenn deine tolle GPU auf die CPU warten muss guckste dumm aus der Wäsche.
...aber wieso sollte die GPU bei gleicher CPU-Leistung bei einer älteren CPU „warten müssen“ und bei einer Neueren nicht?

Nö, verstehe ich tatsächlich nicht. 200 Km/h sind 200 Km/h, egal, ob du sie mit einem Porsche, Baujahr ’70, oder mit einem Golf GTI, Baujahr 2020 fährst. Unterscheidet sich allenfalls der Spritverbrauch.
 
Der mac pro liefert die Leistung auf 24 treads kein Spiel nutzt 24 treads sinvoll!

Eine CPU mit 12 treads und gleichen multicore score performt in spielen die heut zu tage 2 bis 8 treads sinvoll nutzen besser.

Dazu kommen noch die geschwindigkeit des RAMs die große des lv3 Cash (der mach in einigen Spielen eine massive Unterschied) und die Anbindung der Grafikkarte machen auch nich ein par % aus sind spielen aber in Benchmarks oft keine große Rolle.
 
Zuletzt bearbeitet:
Der mac pro liefert die Leistung auf 24 treads keine Spiel nutzt 24 treads sinvoll!
Das hatten wir doch schon geklärt! Tsunami hatte doch schon geschrieben, dass Time Spy die CPU-leistung offenbar auch nicht aus allen Threads ermittelt. davon ab, ist auch die in #146 getestete CPU 12-Core. Am proportionalen Verhältnis sollte sich also nichts ändern.

Dazu kommen noch die geschwindigkeit des RAMs die große des lv3 Cash (der mach in einigen Spielen eine massive Unterschied)
...wobei es da eben auch nicht nur um die reine Taktrate geht, sondern auch, ob Single-, Dual, oder Triple-Channel verwendet wird.

und die Anbindung der Grafikkarte machen auch nich ein par % aus sind spielen aber in Benchmarks oft keine große Rolle.
Naja, solange man hier keine nur mit 8 oder gar nur 4 Lanes angebundenen „Würstchen“ wie die RX 6500xt auf einem PCIe 2.0 verwendet, sind mir da keine wirklich messbaren Unterschiede bekannt. In diesem Test hier liefert selbst eine 4090 auf einem PCIe 4.0 x4(!), was relativ genau einem 2.0 x16 entspricht, noch 92% bis 94% ihrer Leistung ab. Bei praktisch jeder anderen GPU wird man also die Schnittstelle, solange es 16 Lanes sind, vollkommen vernachlässigen können.
 
Zuletzt bearbeitet:
Genau das zeigte der obige Test von Hardwaredealz. Ne geile Grafikkarte eingebaut und die langweilt sich weil die CPU nicht hinterher kommt.
Ich hab mir das Video von diesem „Test“ jetzt mal angeschaut.

Du hattest schon mit bekommen, dass da eine Grafikkarte, die rund dopplelt so schnell ist, wie die RX 6800, die ich benutze, das Fetteste, was es momentan für Geld zu kaufen gibt, eine RTX 4090, auf eine CPU losgelassen wird, die nicht einmal ein Drittel der Performance der CPU-Leistung eines 12-Kerner 5,1 hat? Die hatte 2.500 in Cinebench R23 Multicore. Da komme ich auf fast 9.000! Dass das „nicht so ganz“ harmonisch ist, liegt auf der Hand. Dafür läuft es aber doch sogar noch ganz gut, was er am Ende ja auch resümiert.

Nur, was soll das mit den Verhältnissen in den Intel-Macs zu tun haben, um die es hier geht? Weder, wird je jemand auf die Idee kommen, da eine 4090 einzubauen (auch wenn sie unter Windows vielleicht sogar laufen würde), noch hat irgendeiner davon eine solche Krücke von einem Prozessor.
 
Ich weiß nicht was so schwer daran zu begreifen ist, dass ich es nicht für sinnvoll erachte eine 13 Jahre alte Apple-Hardware zu kaufen um darauf dann unter Windows zu zocken. Ich erachte das halt nicht als sinnvoll, warum hab ich hier im Thread geschrieben gehabt und ich werde es nicht wiederholen. Du, @flyproductions, könntest das ja auch mal akzeptieren oder fällt dir das wirklich soo schwer? :noplan:
 
Und wenn deine tolle GPU auf die CPU warten muss guckste dumm aus der Wäsche. Genau das zeigte der obige Test von Hardwaredealz. Ne geile Grafikkarte eingebaut und die langweilt sich weil die CPU nicht hinterher kommt. Keine Ahnung warum man das nicht versteht. Ich hab schon wieder das Gefühl, dass wieder einmal jedes Wort auf die Goldwaage gelegt wird...mir wirds jetzt zu blöd.
Time Spy macht 4 verschiedene Tests: Gesamtleistung, 2x GPU, 1x CPU
Dann erhält man zwei Zahlen und so näher die Werte beieinander sind, um so besser sind CPU und GPU aufeinander abgestimmt.

Klar hat man beim 5,1er irgendwann ein CPU Bottleneck, aber das kommt auch immer auf das Spiel an und in 1080p geht noch so einiges. Der 5,1 ist mit 8000 Punken immerhin 2,5 mal so schnell wie die Alienware Kiste.

Ich werde bei Gelegenheit mal Shadow of the Tomb Raider unter Windows testen.
 
Wenn ich das richtig in Erinnerung hab testet die Demo Version ja gar kein 4K Letztlich sind die benchmarks doch nur nice to know aber in der Praxis zählt doch nur ob ich ein bestimmtes Spiel in Ultra in einer bestimmten Auflösung gut hinkriege und ob man damit gut spielen kannst. ob es dann 10k oder 12k Punkte hat ist Wurscht. Sprich, wenn das Spiel, was man spielen will läuft gibt es kein nach oben mehr.

Und dann gibt s ja auch noch Tricks wie dlss, soweit ich weiss haben die AMD karten gar net in dem Umfang anbieten und nur FSR2. @flyproductions hat oben mal dargelegt "so toll sei das Ergebnis mit den paar Pünktchen" von meinem Gaming PC nun wirklich nicht.
Fakt ist, dass ich mit dieser Config in 4K auf 60FPS alles in Max oder Ultra spielen kann und auf meinem 144hz 2k gaming Monitor so ziemlich alles mit 120-144 FPS. Nichtmals technisch als Gurken umgesetzten Titel wie Hogwarts Legacy stellen den Rechner vor ne Herausforderung und ich laufe hier mit 100 FPS durch eine wunderschön designte Welt in Hogwarts. Meiner Meinung nach hätte ich also gar nix von einer besseren CPU (das ist ne 150 Euro CPU). Es ist doch klar, dass wenn ich Premium Hardware die mal mehrere 1000 Euro gekostet hat mit im Neupreis wesentlicher günstiger Hardware vergleiche, dass die alte HW nicht so schlecht abschneidet. Wäre ja auch anders schade! Dabei handelt es sich letztlich um Standard Hardware (60 Euro Mainboard), was man mit einem Klick bei Aldi kaufen könnte ohne sich groß Gedanken zu machen. Okay - es kommt natürlich schon darauf an, was für ne Grafikkarte man hat ...

Sprich: man muss eigt. sich nicht bei 10 Jahre alter Hardware einlesen, Boot Camp installieren, neu installieren, umbauen etc. etc. Mit einem Neusystem kriegt man erstens ein zukuntssicheres System, kann das in der Regel locker aufrüsten (auch wenn bei mir mit AM.4 leider erstmal Schluss ist) und kriegt auch noch Gewährleistung. Insgesamt aufjedenfall ein Rundumsorglospaket. Rundumsorglos wäre ich nicht bei Komponenten die ein Jahrzehnt auf dem Buckel haben. Einen Uralt Mac aufzurüsten ist deswegen nur was für Liebhabern, die am basteln Lust haben.
 
Zuletzt bearbeitet:
Es ist also kein zukunftssicheres System

naja wenn ich jetzt neu kaufen würde,dann würd ich direkt am5 kaufen wenn man aufrüsten will. und bei Intel kann das ganz anders aussehen… hab mein System vor einigen Jahren vor erscheinen der am5 Board gekauft und drei Generationen aufgerüstet 2600 3000er und nun 5000er Series. mittlerweile ist das fast nix mehr außer dem Main Board was ich am Anfang drin hatte … sprich auch hier ist das syts wieder ein halbes Jahrzehnt alt.
 
Ich weiß nicht was so schwer daran zu begreifen ist, dass ich es nicht für sinnvoll erachte eine 13 Jahre alte Apple-Hardware zu kaufen um darauf dann unter Windows zu zocken.
Dass du es nicht für sinnvoll erachtest, hat inzwischen vermutlich jeder begriffen. Das hat aber absolut nichts damit zu tun, ob es „sinnvoll“ ist oder nicht. Falls du das allerdings argumentieren möchtest, tust du dir mit Beispielen wie dem Video von Hardwaredealz, die hinten und vorne nicts mit dem Thema zu tun haben, um das es hier geht, sicher keinen Gefallen.

Ich erachte das halt nicht als sinnvoll, warum hab ich hier im Thread geschrieben gehabt und ich werde es nicht wiederholen.
Tust aber gerade wieder.

Du, @flyproductions, könntest das ja auch mal akzeptieren oder fällt dir das wirklich soo schwer? :noplan:
Ja, ich akzeptiere, dass das deine Meinung ist.
 
Zuletzt bearbeitet:
Apple und Gaming werden vermutlich nie Freunde😄
Würde mir fast sogar eine Konsole für heutige Games kaufen. Den Mac dann zum Arbeiten.
 
Zurück
Oben Unten