Was zur Hölle ......neuer iMac?

Nene, es geht darum, von benchmark Ergebnisse auf die reale Welt abzuleiten.
Die reale Welt besteht nun mal nicht nur aus einem Programm..
 
Nene, es geht darum, von benchmark Ergebnisse auf die reale Welt abzuleiten.
Die reale Welt besteht nun mal nicht nur aus einem Programm..

Überlege doch mal, worauf Du hinauswillst. Willst Du sagen, es gibt ein Anwendungsszenario, in dem ein i3-10000N, der sowohl im Singlecore- als Multicore-Benchmark einen Bruchteil der Werte eines i9-10900K erreicht, in irgendeinem realen Szenario schneller arbeiten wird? schneller rendern, schneller rechnen? Worauf willst Du denn hinaus - wenn Du ein Beispiel im realen Leben findest wäre das hilfreich!
 
Nein, "gleiche Architektur".
Also von mir aus der core i5 10. Generation.
 
Nein, "gleiche Architektur".
Also von mir aus der core i5 10. Generation.

Also in etwa sowas:
Hier sind 5 Intel-CPUs der 10. Gen. Hm, erstmal Benchmark:
1598100871605.png

Und jetzt „Real Life“, Blender Rendering:
1598100899608.png

Die im Benchmark schnellste CPUs brauchen am wenigsten Zeit für das Rendern in Blender.
Skandal?
 
  • Gefällt mir
Reaktionen: zeitlos
Nein, Du musst schon den core i7 mit den verschiedenen taktstufen und core zahlen vergleichen. Nicht den core i7 mit dem core i5.
 
Nein, Du musst schon den core i7 mit den verschiedenen taktstufen und core zahlen vergleichen. Nicht den core i7 mit dem core i5.

Erstens ist das Quatsch - i5 und i7 sind nur Namen. Zweitens sind zwei Core i5 in der obigen Aufstellung.
 
Und was sagt das jetzt aus?
Das der benchmark mit Blender korreliert?
Trifft das z. B. auch auf Datenbanken zu(oracle, MSSQL etc).

Mich interessieren Serveranwendungen ja deutlich mehr. Ein Mailserver(MX) z.B. hat ganz andere Anforderungen als eine Servervirtuisierung welche wieder andere als z. B. eine Desktopvirtualisierung hat.
Gerade bei der Virtualisierung kommt es dann noch ganz konkret auf die Details an ob z. B. viele langsame Kerne zu einem besseren Ergebnis führen als wenige schnelle Kerne.
 
Ich bin da gerne offen für auch nur ein einziges konkretes Beispiel, welches deine Allgemeinaussagen beweist.
 
Desktopvirtuisierung: schnelle cores verbessern das Nutzererlebnis erheblich.
Mailserverver, Webserver etc profitieren oft von mehr Kernen wegen mehr Parallelität.

Rechnerisch sind 16Kerne a 2,4Ghz genau so schnell wie 24 Kerne a 1,6Ghz. Wenn alles andere identisch ist.
Ersteren würde ich für virtuelle Office Desktops nutzen, zweiteren für diverses Serveranwendungen(Mailserver, teweise Webserver) etc.
 
Rechnerisch sind 16Kerne a 2,4Ghz genau so schnell wie 24 Kerne a 1,6Ghz. Wenn alles andere identisch ist.
Ersteren würde ich für virtuelle Office Desktops nutzen, zweiteren für diverses Serveranwendungen(Mailserver, teweise Webserver) etc.

Du bleibst in deiner theoretischen Welt, und kommst mit rechnerischen Beispielen. Bring doch einfach mal ein konkretes Beispiel mit real existierenden CPUs, die diese Aussage stützen.

In allen möglichen Testreihen auf diversen Techblogs werden immer wieder verschiedene CPUs gegenübergestellt, in Benchmarks und echten Anwendungen. Und der „Außenseiter“, der dann aber in einer einzigen Disziplin das ganze Feld aufrollt, ist mir noch nicht untergekommen.

Der i5-10400 ist gegenüber dem i5-10600 um 15% langsamer - und dann zeigen auch alle möglichen Anwendungen dieses Ergebnis. Da ist dann nicht plötzlich in einem Spezialfall die langsamere CPU unerwartet die schnellere - wie auch?
 
Gleiche corezahl, gleicher Cache, bei unterschiedlicher Taktfrequenz. Da ist das doch wohl kein Wunder, oder?
 
Der punkt ist doch, das in manchen Fällen mehr Kerne mit kleinerem Takt einen größeren Vorteil haben als ein höherer Takt bei weniger Kernen.
 
Gleiche corezahl, gleicher Cache, bei unterschiedlicher Taktfrequenz. Da ist das doch wohl kein Wunder, oder?

Das ist Technik, und sowieso kein Wunder. Aber es gilt dabei Benchmark = Echtwelt.

Der punkt ist doch, das in manchen Fällen mehr Kerne mit kleinerem Takt einen größeren Vorteil haben als ein höherer Takt bei weniger Kernen.

Darum ging es doch nie. Es ging um Benchmarks vs Echte Welt. Wenn eine CPU im Benchmark schneller ist, ist sie auch bei vergleichbaren Operationen in der Echten Welt schneller. Deine Multicore-CPU wird im Benchmark auch mehr Punkte haben, die sich dann in der Kern-ausnutzenden „echten“ Anwendungen zeigen.
Wenn Software hingegen nur einen Kern nutzt, muss man den Singlecore-Geekbench vergleichen, hier zählt dann die reine Taktfrequenz.
 
Pläne mal eine etwas größere Serverlandschaft und du wirst merken, so einfach ist das nicht...

Aber bleib du bei deinen Benchmarks, ich nutze die Kenntnisse aus dem echten Leben.

Zumindest laufen wir keine Gefahr uns gegenseitig die CPUs wegzukaufen, wenn die mal knapp werden. 😉
 
Zumindest laufen wir keine Gefahr uns gegenseitig die CPUs wegzukaufen, wenn die mal knapp werden. 😉

Nenn‘ doch einfach nur mal eine einzige CPU, dich ich deiner Meinung nach wegen schlechter Benchmarks nicht kaufen würde. Nur ein Beispiel, bitte!
 
Wie oft noch: es kommt auf den Anwendungsfall an und immer nur im Vergleich.

Es gibt so gut wie keine schlechte CPU sondern nur für einen Anwendungsfall besser oder schlechter geeignete. Das kann man aber eben nicht immer in den Benchmarks ablesen, da es deutlich mehr Faktoren gibt.
 
Aber bleib du bei deinen Benchmarks, ich nutze die Kenntnisse aus dem echten Leben.

Mit Verlaub: Du hast doch bisher nur theoretisiert und nicht ein einziges konkretes Beispiel (Rechner/App) genannt, so dass man Deinen Ausführungen folgen könnte. Und wenn Du hier eine Trennung beim User “Moriarty” zwischen “Benchmarks/echtes Leben“ machst, ist das schon leicht dreist, oder? Denn genau diese beiden Welten versucht er mit Beispielen zu verknüpfen. Vielleicht kannst Du Deinen Worten auch mal “Taten” folgen lassen und lieferst mal Belege für Deine Ausführungen. Und ja, dass mehrere Kerne u.U. bei weniger Takt mehr leisten können war doch hier gar nicht Thema. Es ging um die immer wieder auftauchenden Pauschalurteile a la “das ist nur Benchmark, das kannste für die “echte Welt” knicken”...
 
Wie oft noch: es kommt auf den Anwendungsfall an und immer nur im Vergleich.

Es gibt so gut wie keine schlechte CPU sondern nur für einen Anwendungsfall besser oder schlechter geeignete. Das kann man aber eben nicht immer in den Benchmarks ablesen, da es deutlich mehr Faktoren gibt.

Wie gesagt. Deine Aussagen sind so allgemein gehalten dass sie im Grunde nichts beweisen.
„Plane mal eine Serverfarm, da sieht das anders aus...“ - ja wie denn konkret? Und wie schlagen sich denn Top-Server-CPUs im Benchmark? In den gängigen Benchmarks führen die Threadripper und Xeons die Listen an.

Ich habe zig Beispiele gebracht für meine These, dass bei gleichen Rahmenbedingungen die Leistung im Benchmark auch in vergleichbaren Realbedingungen besteht. Du hast dem vehement widersprochen, ohne auch nur ein Beispiel zu bringen, wo ein Prozessor deutlich weniger Leistung im Benchmark bringt, dann aber in einer Software schneller ist.

Ich denke wir beenden das jetzt hier, weil wir uns im Kreis drehen.
 
Wie soll man bei sowas ein konkretes Beispiel nennen?
Nehmen wir halt als Beispiel eins eine Standard Citrixumgebung(kein VDI) und als Gegenbeispiel eine Farm virtueller Webserver.
Die CPUs zur Auswahl: I6262V oder I6230

Keine Ahnung wie die Benchmarks sind. Aber ich würde für citrix den ersten und für die Webserver die zweite nehmen.
 
Ich habe zig Beispiele gebracht für meine These, dass bei gleichen Rahmenbedingungen die Leistung im Benchmark auch in vergleichbaren Realbedingungen besteht. Du hast dem vehement widersprochen,
Nein, ich habe nur gesagt, daß die Benchmarks eben nicht unbedingt den vergleichbaren Realbedingungen entsprechen. In dem Fällen, in denen das so ist passen die Benchmarks logischerweise, es gibt aber eben viele Fälle wo die Benchmarks eben nicht die Realbedingungen abbilden.
 
Zurück
Oben Unten