Bester Intel-Mac für Gaming

Genau das müsste man eben nur machen. Hier werden reihenweise synthetische Benchmark-Scores gepostet, deren Bezug zu realen Gaming-Workloads eher fragwürdig ist.
Auch wenn die Spieleengines zunehmend Multicore-Optimiert sind gibt es auch in modernen Spielen in der Regel immer noch nicht-parallelisierbare Tasks, die entsprechend von der Performance eines einzelnen Cores limitiert werden. Und das schlägt auf alten CPUs natürlich entsprechend durch.

Siehe beispielsweise die Gaming-Benchmarks hier: https://www.youtube.com/watch?v=pUkvmAUV-hU
Da wird ein auf 4.3GHz übertakteter Westmere-Xeon mit einem i7 8700k (~6 Jahre alt) verglichen, welcher selbst mit einer RTX 2080 (auch aus heutiger Sicht nicht schlecht, aber inzwischen eben auch 5 Jahre alt und lange nicht mehr High-End) im Schnitt 40-50% mehr FPS liefert.
Beim Einsatz einer modernen GPU und im vergleich mit aktuellen CPUs geht die Schere noch mehr auf. Und mit aktuellen Spielen, natürlich, das Video ist aus 2018.

Aber dass die Praxis so aussieht, haben andere hier, die auch tatsächlich mal Spielen und nicht nur Benchmarks laufen lassen, hier ja schon geschrieben.
Hey @Fl0r!an - genau so isses(y)
weiß nicht, ob du dich noch an mich erinnerst, aber du hast mir mal vor zig Jahren über dieses Forum geholfen, eine GTX970 für den 5.1 zu flashen - schön, das es dich noch gibt.
 
  • Gefällt mir
Reaktionen: Madcat
Also: Soweit ich das verstehe, sagt hier GPU Bound 99 % aus, dass die GPU voll ausgelastet ist.

Scheinbar nutzt TR alle Kerne und die Auslastung der Kerne liegt bei der maximalen Auflösung (2560x1440), die mein Monitor kann, bei ca. 40 %. Mit einer stärkeren GPU wäre wohl noch mehr möglich. Ich schätze mal CPU Renderer zeigt, was die CPU liefern könnte (91 min., 231 max.)?

IMG_2430   .jpg

IMG_2424  .jpg

IMG_2426 2.jpg
 
  • Gefällt mir
Reaktionen: flyproductions
Genau das müsste man eben nur machen. Hier werden reihenweise synthetische Benchmark-Scores gepostet, deren Bezug zu realen Gaming-Workloads eher fragwürdig ist.
Auch wenn die Spieleengines zunehmend Multicore-Optimiert sind gibt es auch in modernen Spielen in der Regel immer noch nicht-parallelisierbare Tasks, die entsprechend von der Performance eines einzelnen Cores limitiert werden. Und das schlägt auf alten CPUs natürlich entsprechend durch.

Siehe beispielsweise die Gaming-Benchmarks hier: https://www.youtube.com/watch?v=pUkvmAUV-hU
Da wird ein auf 4.3GHz übertakteter Westmere-Xeon mit einem i7 8700k (~6 Jahre alt) verglichen, welcher selbst mit einer RTX 2080 (auch aus heutiger Sicht nicht schlecht, aber inzwischen eben auch 5 Jahre alt und lange nicht mehr High-End) im Schnitt 40-50% mehr FPS liefert.
Beim Einsatz einer modernen GPU und im vergleich mit aktuellen CPUs geht die Schere noch mehr auf. Und mit aktuellen Spielen, natürlich, das Video ist aus 2018.

Aber dass die Praxis so aussieht, haben andere hier, die auch tatsächlich mal Spielen und nicht nur Benchmarks laufen lassen, hier ja schon geschrieben.

Bei diesem Test wurde ein X5650 verwendet. Mich würde interessieren, wie das Ganze mit 2 x 6 Kernen aussehen würde.

Ich lasse heute Abend auch mal bei Tomb Raider bei 1080p laufen, mit den selbem Einstellungen.
 
  • Gefällt mir
Reaktionen: flyproductions
Bei diesem Test wurde ein X5650 verwendet.
Naja, auf 4,3 GHz übertaktet! Da würden unsere 5690er wohl „nicht wirklich viel besser“ aussehen.

Andererseits, für den selbst heute wohl noch mehr als zehnfachen(!) Preis dürfen es dann schon ruhig auch ein paar Frames mehr sein.
 
Naja, das ist so ähnlich, wie mit der 4090: Gibt es! Aber
a)auf welchen mehr oder weniger Budget-Mainbords ist es heute schon vorhanden?
Lassen wir doch mal das Budget/Billigsegment aussen vor und reden von vernünftigen Mittelklasse-Mainboards und ja, da gibt es eine ganze Menge, von PCIe 4.0 mal ganz zu schweigen, daß ist nämlich seit Ende 2020 Standard, nur hat Apple den 7.1 nicht mehr geupdatet. Schließlich hattest Du ja schon in die Richtung argumentiert, daß Du PC-Hardware i.d.R. für weniger wertig hältst, als das was Apple verbaut.
b)welche Komponenten, namentlich MVMe-SSDs, unterstützen es und
c)selbst, wenn sie es tun, was bringt es?
Wird sowohl von aktuelleren Grafikkarten, als auch NVMe-SSDs genutzt. Was das bringt ? Höheren Datendurchsatz, solltest Du angesichts Deiner bisherigen Posts auch selbst wissen... ob Du es brauchst oder nicht ist Deine Entscheidung.
...dass man ihr z. B. nach über 10 Jahren noch über den Weg trauen kann? 😉
Kann man einer "normalen" CPU auch, habe ich oft genug erlebt. Nebenbei habe ich auch so einige Xeons und auch Serverboards vor Ablauf dieser 10 Jahre sterben sehen.
Nun ja, das mögen theoretische Erwägungen sein. Schön, dass sie den Heißbetrieb aushalten. Etwa in einem 5,1 müssen sie es nicht! Meine CPUs sind aktuell 37 und 45 Grad warm. Die Lüfter laufen mit 600 und 550 Umdrehungen.
Schön, wenn Du den cMP so wenig auslastest. Meiner lief zum Schluß nicht unter 60°C, die Lüfterdrehzahl hab ich mir nicht angeguckt...
Da haben wir wohl einfach unterschiedliche Use-Cases. Mir reicht der cMP in der aktuellen Ausstattung noch allemal. Ist sogar immernoch eher überpowert. Und, zumindest, von der „professionellen Seite“, wird sich daran auch nichts mehr ändern.
Wäre das bei mir der Fall gewesen, hätte ich keine neue K
Jaja, die Sicherheit! Ist halt die Frage, wie groß die Gefahr ist, dass sich irgendwer die Mühe macht, die Nische in der Nische (alte Version eines OS, das ohnehin <10% Marktanteil hat) anzugreifen, wenn er mit dem gleichen Aufwand anderenorts viel größeren Schaden anrichten kann. Außerdem haben die tollen Updates auch gerne schonmal mehr zerdeppert als sie „gefixt“ haben.
Mit geht es da weniger um die Sicherheit, als um die Unterstützung etwaiger Software von Drittherstellern. Schön, wenn man mit einem alten OS und einfrorenen Versionsstand seine Arbeit machen kann. Benötigt man aber ein halbwegs aktuelles OS für entsprechende Updates, sieht das irgendwann anders aus.

Meine Anforderungen erfüllt jedenfalls derzeit kein aktuelles System von Apple und ich sehe nicht ein, mehr Geld für ein entsprechendes gebrauchtes System (ggf. zzgl. Anpassung) auszugeben, als für ein neues, leistungsfähigeres mit durchaus wertigen Komponenten (BeQuiet, Kingston und Asus bauen ja nun nicht unbedingt Billigschrott und bieten längere Garantien als Apple). Wenn das bei Dir anders ist, dann freu Dich, daß Dein 5.1 so schön läuft.
 
Lassen wir doch mal das Budget/Billigsegment aussen vor und reden von vernünftigen Mittelklasse-Mainboards und ja, da gibt es eine ganze Menge, von PCIe 4.0 mal ganz zu schweigen, daß ist nämlich seit Ende 2020 Standard, nur hat Apple den 7.1 nicht mehr geupdatet.
Gebe ich dir absolut recht! In den 7,1 hätte auf jeden Fall schon 4.0 gehört! Noch lächerlicher sind eigentlich die „4.0 Steckplätze“ des neuen PRO, wo sich offenbar alle Steckplätze die Bandbreite teilen müssen. Neben der Tatsache, dass keine dedizierten GPUs drauf laufen.

Schließlich hattest Du ja schon in die Richtung argumentiert, daß Du PC-Hardware i.d.R. für weniger wertig hältst, als das was Apple verbaut.
Das bezog sich eher auf die „Build Quality“ und das Engineering der Gehäuse. Die „echten Hardwarekomponenten“, also alles, was ein PCB hat, macht Apple ja wohl auch nicht selbst.

Gut, was Prozessoren und Speicher angeht, ist es halt traditionell Server vs. Consumer. Hat wohl beides seine Vor- und Nachteile. Ob man z. B. als Enduser irgendwas von Error Correction hat, ist vermutlich fraglich.

Wird sowohl von aktuelleren Grafikkarten, als auch NVMe-SSDs genutzt. Was das bringt ? Höheren Datendurchsatz, solltest Du angesichts Deiner bisherigen Posts auch selbst wissen...
Theoretisch klar! Die übliche Verdopplung.

Der Punkt bezog sich eher darauf, was dann hinten wirklich spürbar ankommt. Die 980 PROs, die ich drin habe, sind ja 4.0. Obwohl die als "eher heikel“ bekannt sind, hab ich mir sogar extra die geholt, weil sie „zukunftssicherer“ sind. Theoretisch könnten die also 7.000. Bei mir können sie nur 3.500 minus Overhead. Aber ich müsste lügen, wenn ich sagen würde, dass ich da jetzt im Alltag einen dramatischen Unterschied selbst zu den 1.500, die die 15 Euro-Adapter bringen, gespürt hätte.

Und ich glaube, ich hatte auch mal ein Linus-Video gesehen, wo der Unterschied selbst bei absoluten High-End-Grafikkarten zwischen 3.0 und 4.0 nicht einmal wirklich synthetisch messbar war. Selbst die haben also wohl kaum einen 3.0 x16 gesättigt.

5.0 wird aber doch wohl erst von ganz wenigen Komponenten, einigen wenigen SSDs und so, unterstützt, oder? Da hat, glaube ich, sogar „Der Bauer“ gesagt, man soll momentan noch die Finger davon lassen.

Schön, wenn man mit einem alten OS und einfrorenen Versionsstand seine Arbeit machen kann.
Ja, da bin ich auch, ehrlich gesagt, nicht (mehr) böse drum! Ich glaube, Windows, das gefühlt bei jedem dritten Hochfahren irgendwelchen Mist installieren will, für den man dann noch zweimal rebooten muss, würde ich nervlich nicht wirklich auf Dauer verkraften.
 
Zuletzt bearbeitet:
Ja, das Studio-Display hat seine Tücken. Aber klar, man kann sich gar nicht drauf einstellen. Man kann ja vorher gar nicht nachschaun ob das Display mit dem Zielsystem laufen wird. Und wer kennt sie nicht, die wirklich überragende Eignung des Studio Dispays als Gaming-Monitor. Mit seiner Reaktionszeit von 11 ms und einer Bildwiederholrate von 60 Hz...da träumt ein Gaming-Monitor nur von... :rotfl:
Ich spiele nichts, was an 11 ms und 60 FPS scheitert. Davor scheitert es an meinen Fähigkeiten im Spiel. ;)
 
Ich spiele nichts, was an 11 ms und 60 FPS scheitert. Davor scheitert es an meinen Fähigkeiten im Spiel. ;)
Ersteres gilt nicht für mich (spiele z.B. World of Tanks mit 30 FPS weil mein Setup, Hardware + Einstellungen, schlicht nicht mehr hergibt), letzteres aber sehr wohl. Ich vertrete auch die Meinung, dass jeder, der behauptet, er könne einen Unterschied zwischen einem 60Hz Monitor und einem 120Hz Monitor sehen, sich etwas vormacht. Ähnliches gilt für 10ms Monitor und 2ms Monitor. Aber das sind leider immer wieder Endlos-Diskussionen. Seinerzeit (um 2010/2011 rum) gab es an meiner alten Uni mal eine Untersuchung, wie gut man den Unterschied zwischen einem HiDPI-Bildschirm und einem normalen Bildschirm eines MBPs erkennen kann. Ergebnis was, beim ärztlich empfohlenen Mindestabstand (ich mein es waren 70cm, genau weiß ich es nicht mehr) lässt sich kein Unterschied feststellen. Und was hatten wir selbst hier im Forum immer wieder an Diskussionen, dass man den Unterschied immer sehen würde und wie blind man sein müsse, den Unterschied nicht zu sehen... ;)
 
  • Gefällt mir
Reaktionen: Petoschka
Ergebnis was, beim ärztlich empfohlenen Mindestabstand (ich mein es waren 70cm, genau weiß ich es nicht mehr) lässt sich kein Unterschied feststellen.
Wenn deine Augen 70 cm vom Bildschirm entfernt sind, wie lang sind bitte deine Arme, dass du dann noch auf der Tastatur deines MBP tippen kannst? So Orang-Utan-mäßig lang? Ich glaube das Ding heißt Laptop, weil man das Gerät auf seinem Schoß oder vor sich auf dem Schreibtisch hat. Und nicht in Affenschaukel-Entfernung mit einem Stock auf der Tastatur tippen sollte :)

Realität und Wirklichkeit dieser "Untersuchung" klaffen doch ein büschen auseinander ;-)
 
man gewöhnt sich schon sehr daran, je nach dem wovor man sitzt.
Ich habe hier einen 4K Monitor 60Hz und einen WQHD 144 Hz nebeneinander.
Man sieht im direkten Vergleich einen Riesen Unterschied.

Schrift ist auf dem 4K deutlich schärfer. Dafür sind die Bewegungen auf dem 144 Hz deutlich smoother wahrnehmbar.
Größer ist allerdings der Unterschied zwischen 30 und 60 FPS zu sehen. Wenn ich manche Spiele auf der Switch mit 30 FPS zocke, dann denk ich mir schon manchmal: kann man das noch spielen oder ruckelt man sich hier durch.

Aber wer es nicht sieht, soll doch froh sein. Eine Sorge weniger und gesparte Kohle.
Vielleicht spielt ihr aber auch einfach keine Shooter - da fällt mir das nämlich am meisten auf.

Habe vor ein paar Wochen meinem Neffen auf seinem fullHD 24 Zoll Monitor was eingerichtet. Alter Mann geh zum Augenarzt. Ich hab gedacht ich wär spontan erblindet. Alles verschwommen.
 
  • Gefällt mir
Reaktionen: 7zeichen
Wenn deine Augen 70 cm vom Bildschirm entfernt sind, wie lang sind bitte deine Arme
Vielleicht waren es auch 50cm, ich weiß es nicht mehr genau. Ist ja nicht so, als sei dieses Projekt gestern oder letzten Monat gewesen. Das Projekt lief vor über 12 Jahren, da darf man schon mal was vergessen/verwechseln. ;)
Ich hab deshalb mal grade das Bastellineal meiner Frau zur Hand genommen, das knapp über 60cm lang ist (kann bis zu 60cm messen). Und wenn der Laptop hier vor mir auf dem Schreibtisch steht passt das Lineal in der Tat zwischen Nasenspitze und Bildschirm und hat noch Luft. Aber 70cm könnten tatsächlich knapp gewesen sein, wahrscheinlich waren es 50cm. Am Ergebnis ändert das aber halt nichts ;)
Habe vor ein paar Wochen meinem Neffen auf seinem fullHD 24 Zoll Monitor was eingerichtet. Alter Mann geh zum Augenarzt. Ich hab gedacht ich wär spontan erblindet. Alles verschwommen.
Also entweder warst du zu dicht am Bildschirm dran oder du übertreibst maßlos. Ich tippe auf letzteres ;)
 
  • Love
  • Gefällt mir
Reaktionen: Petoschka und 7zeichen
Also den unterschied zwischen z.b 900p display wie im 2011 15 Zoll MBP und einen 1800p Display in eine 2012 er Retina MBP sollte man bei normaler Nutzung schnell sehen.
 
  • Gefällt mir
Reaktionen: 7zeichen
Also den unterschied zwischen z.b 900p display wie im 2011 15 Zoll MBP und einen 1800p Display in eine 2012 er Retina MBP sollte man bei normaler Nutzung schnell sehen.
Es wurde nicht der Unterschied zwischen Standard-Displays von 2011er 15" MBP mit 2012er 15" Retina MBPs verglichen/untersucht sondern der Unterschied von Standard-Displays (900p) der 15" MBPs mit HiDPI-Displays (1050p, wenn ich mich recht entsinne) der 15" MBPs des gleichen Baujahres (ich meine es waren 2010er-Modelle ;)) unter der Randbedingung, dass die Anzeige der HiDPI-Displays aussah wie die Anzeige der Standard-Displays. Es ging seinerzeit tatsächlich darum, ob man wirklich sehen konnte, dass die HiDPI-Displays schärfer sind, bei einem normalen Arbeitsabstand. Ergebnis war, dass es nicht erkennbar war (obwohl viele behaupteten, dass man den Unterschied sehr deutlich sehen würde ;))

Ich, für meinen Teil, kann auch nicht sehen, ob das Display meines M1 MBPs schärfer ist als der externe 4k Monitor aber meine Augen sind weder ein geeigneter Maßstab, noch sind es die Besten. Natürlich weiß ich, dass der Bildschirm meines MBPs schärfer ist aber Wissen <> Sehen ;)
 
also der unterschied zwischen 900 und 1050p ist nicht gigantisch. aber schon das mehr an platz auf den desktop ist kaum zu übersehen. Dein externer UHD Bildschirm hatt auch eine höhere Auflösung ist also eig schärfer, als das MBA.

Die pixeldichte ist niedriger aber der Bildschirm auch grösser also wirst du vermutlich näher am macbook als am Motor sitzen.

Wichtig ist auch nicht die pixeldichte in z.b punkte pro zoll sondern die Anzahl an pixel für z.b eine Bogenminute im Sichtfeld des Nutzers.
 
Also manchmal frag ich mich ja echt, wie hier Posts gelesen werden :rolleyes:
 
  • Gefällt mir
Reaktionen: Petoschka
Ersteres gilt nicht für mich (spiele z.B. World of Tanks mit 30 FPS weil mein Setup, Hardware + Einstellungen, schlicht nicht mehr hergibt), letzteres aber sehr wohl. Ich vertrete auch die Meinung, dass jeder, der behauptet, er könne einen Unterschied zwischen einem 60Hz Monitor und einem 120Hz Monitor sehen, sich etwas vormacht.
Das Stichwort ist MotionBlur/Bewegungsunschärfe.
Je höher die Refreshrate, desto weniger Bewegungsunschärfe ist im Bild.

An einem Mac fällt das nur weniger auf, weil man - um einen Unterschied zu sehen - auch entsprechend CPU- & GPU-Leistung braucht um eine entsprechend konstant hohe Framerate zu erzeugen.

Ein einfacher Test auf dem Mac wäre z.B. mal ein altes Spiel mit niedrigen CPU-/GPU-Anforderungen beim Rendering mit 60/90/120/144Hz zu testen.
Das sieht man selbst bei Rundenstrategiespielen wie CivilizationV deutlich -> mit 60Hz verschmiert der Bildinhalt beim scrollen über die Karte,
mit 144Hz lassen sich alles Details sauber erkennen.

Auf der anderen Seite sehe ich aber keine (für mich) relevanten Unterschiede auf 4k/5k Displays, wenn ich die Auflösung lediglich dazu nutze 1080p bzw. 1440p "schärfer" darzustellen. Deshalb eiere ich immer noch mit meinem inzwischen knapp 7 Jahre alten Eizo FS2735 herum, den ich ursprünglich mal als Übergangslösung gekauft hatte.
:(
 
Zuletzt bearbeitet:
Motion Blur kann man in pc spielen i der Regel einfach abschalten.
 
An einem Mac fällt das nur weniger auf, weil man - um einen Unterschied zu sehen - auch entsprechend CPU- & GPU-Leistung braucht um eine entsprechend konstant hohe Framerate zu erzeugen.
Apple verbaut bei Macs mit Displays auch gerne Panels die sehr lange Reaktionszeiten haben. Die 14"- und 16"-M1-MBPs haben beispielsweise 120Hz-Panels die aber zu langsame Reaktionszeiten haben (40+ms) um die 120Hz überhaupt nutzen zu können. Ghosting/Smearing ist daher immer vorprogrammiert.

Motion Blur kann man in pc spielen i der Regel einfach abschalten.
Es geht nicht um absichtlich erzeugte Unschärfe, sondern darum dass das Displaypanel nicht oft genug aktualisiert um bei schnellen Bewegungen Unschärfe zu vermeiden. Ist unter dem Stichwort smearing bekannt.
 
  • Gefällt mir
Reaktionen: Petoschka
Also bei 40 ms bei 120 Hz müsste schon beim scrollen durch eine Webseite extremes smearing auftreten. Das müsste sogar den 0815 Nutzer auffallen. Das ist halt ein Problem bei lcd Bildschirmen je nach penal art mal mehr oder weniger ausgeprägt.
 
Zurück
Oben Unten