Grafikleistung Mac Book Pro

gibts auf barefeets auch Benchmarkvergleiche mit der 9600M GT?
Da dürfte ja der unterschied noch mal eklatanter sein. Wisst ihr vielleicht auch wie es da im Vergleich mit der 330M in den aktuellen i5 aussieht?
 
Auf dem Display des MBPs ohne externen Monitor hab ich 27 fps, wohl gemerkt, da ist nichts auf Ultra. Es ist sicher nicht so toll wie man es sich vorstellen kann, gibt genügend Rechner die deutlich schneller sind, aber es geht ja nicht darum wie toll es ist sondern ob es überhaupt geht und es geht.

Das ist doch wirklich lächerlich - ich bestehe nicht auf 60 fps (wenn du dich dann besser auskennt als wenn ich nur frames schreibe :rolleyes:), aber unter 40 kannst du wirklich nicht behaupten, dass das läuft. 27 Frames sind bereits ein deutliches Geruckel, wenn das noch nicht einmal der worst case ist und die Framerate noch zusätzlich einbricht, hast du dann eine Diashow.

Wow.

Vedo, der Unterschied zur 9600M GT ist minimal, da wurde einfach nur eine neuere Serie verbaut. Diese ist nicht schneller, wie auch: In den Mac passen bei der Mobilität und Akkuleistung keine "fetteren" Grafikkarten, und innerhalb der paar Monate tut sich da am Markt nichts so revolutionäres, dass sie schnellere Karten verbauen können. Das macht aber keinen großen Unterschied, denn wir werden im Macbook Pro und auch in anderen Notebooks, die als mobil gelten sollen, keine Karten erleben, die jeweils die aktuellsten Spiele hinbekommen. Das war schon immer so und wird wohl für eine absehbare Zeit so bleiben. Vielleicht hast du einmal bei einer Karte 5 fps mehr als bei der anderen... das wars dann aber schon.

Der Prozessor ist bei den Vergleichen ziemlich irrelevant (bis auf Szenen, die eben grade CPU-lastig sind, zB viele im Wind wehende Grashalme), ob das jetzt ein Core2Duo oder einer aus der i-Serie ist, der bei der 9600 oder 8600 oder 320 mitspielt, ist egal.
 
Zuletzt bearbeitet:
Das ist doch wirklich lächerlich - ich bestehe nicht auf 60 fps (wenn du dich dann besser auskennt als wenn ich nur frames schreibe ), aber unter 40 kannst du wirklich nicht behaupten, dass das läuft. 27 Frames sind bereits ein deutliches Geruckel, wenn das noch nicht einmal der worst case ist und die Framerate noch zusätzlich einbricht, hast du dann eine Diashow.

Fernseh und Kino muss für dich ja die Hölle sein, da hat man ja nur 25 Frames pro Sekunde. Wieso wusste ich nur wieder dass du zur Fraktion gehörst "Ich kann einen Unterschied zwischen 30 und 60 FPS sehen auch wenns physikalisch Unmöglich ist". Wahrscheinlich siehst du auch einen Unterschied zwischen 60 und 100 fps. Hier erübrigt sich jede Diskussion.
 
Aber wie schon oben gepostet wurde der Rest der Hardware außer Acht gelassen und da wir MacUser nicht einfach nur die Grafikkarten kaufen und in beliebige Books einbauen können müssen wir auch die anderen Komponenten die in den jeweiligen Geräten verbaut sind berücksichtigen.

Du hast schon berücksichtigt, dass mein Test zwischen einer 8600M GT in nem 15" MBP und einer 9400M in einem 13" MBP war und dass die 320M im 13" MBP bis zu 80% schneller sein soll? ;)

Und gerade gesehen, bei Notebookcheck ist die Position der 320M nur eine geschätzte Position.

Lass dir mal alle Tests anzeigen und schau noch mal. Die Position ist nur geschätzt weil man nicht alle Tests gefahren hat. ;)
 
Fernseh und Kino muss für dich ja die Hölle sein, da hat man ja nur 25 Frames pro Sekunde. Wieso wusste ich nur wieder dass du zur Fraktion gehörst "Ich kann einen Unterschied zwischen 30 und 60 FPS sehen auch wenns physikalisch Unmöglich ist". Wahrscheinlich siehst du auch einen Unterschied zwischen 60 und 100 fps. Hier erübrigt sich jede Diskussion.

Von weiter vorne: https://www.macuser.de/forum/f10/grafikleistung-mac-book-558118/#post6454757

Und das mit den 25 Bildern pro Sekunde ist so eine Sache. In Kino und Fernsehen sieht das auch nur flüssig aus, weil da genug Motion Blur in den einzelnen Frames drinne ist. Spiel mal eine DVD ab und drücke bei einem Kameraschwenk PAUSE, dann weißt Du, was ich meine.

„Physikalisch“ kann das menschliche Auge je nach Umständen messbar bis über 200 fps auflösen. Gibt genug Studien zu im Netz, und sogar die eine oder andere Testseite, wo man nachschauen kann, was von 25/30/60 fps am wenigsten als ruckelnd wahrgenommen wird. ;)
 
„Physikalisch“ kann das menschliche Auge je nach Umständen messbar bis über 200 fps auflösen. Gibt genug Studien zu im Netz, und sogar die eine oder andere Testseite, wo man nachschauen kann, was von 25/30/60 fps am wenigsten als ruckelnd wahrgenommen wird.

Diese Studien würde ich gerne mal sehen. Hast du die Titel dazu oder gar einen Link? Es ist ein Unterschied ob man 200 fps "merkt" oder "sieht". Sehen kann mans nicht.

Spiel mal eine DVD ab und drücke bei einem Kameraschwenk PAUSE, dann weißt Du, was ich meine

Zu diesem Hinweis: Du kennst "Bewegungsunschärfe"? Eine PAL Fernsehsignal, das wir hier in Deutschland nur haben, hat immer nur 25 FPS. Da hilft auch nicht noch soviel "Motion Blur" gegen, es werden immer 25 FPS bleiben.
 
Fernseh und Kino muss für dich ja die Hölle sein, da hat man ja nur 25 Frames pro Sekunde. Wieso wusste ich nur wieder dass du zur Fraktion gehörst "Ich kann einen Unterschied zwischen 30 und 60 FPS sehen auch wenns physikalisch Unmöglich ist". Wahrscheinlich siehst du auch einen Unterschied zwischen 60 und 100 fps. Hier erübrigt sich jede Diskussion.
Es wird zwischen jedem Bild verwischt (Motion Blur). Dieser Motionblur muss tw. künstlich hinzugefügt werden (bei Actionfilmen zB), ohne diesen würde auch das Kinobild ruckeln.

Man sieht keinen Unterschied zw. 60 und 100 fps, aber ich erkläre dir gerne die Problematik. Das Bild auf der Leinwand ist ja bereits vorgerendert im Gegensatz zu dem eines Games. Damit eine Grafikkarte durchgehend um die 30-60 Frames liefern kann, muss sie im Durchschnitt um die 100 fps zusammenbringen, ansonsten sinkt die Framerate zwischendurch für Momente so stark ein, dass ein Ruckeln wahrgenommen wird. Bei Strategiespielen wirds natürlich nicht auffallen, bei Shootern à la Counter Strike Source oder bestes Beispiel, Quake 3, fällt das auf. Wie gesagt, mit Testdrive Unlimited kannst du das sofort ausprobieren und wirst mir zustimmen. Es ist ein einfaches Rennspiel und da brauchst du keine "geschulten" Shooteraugen, stell dir zwei Rechner nebeneinander, einmal 30, einmal 60 fps und oh Wunder, du wirst mir zustimmen können.

Zusätzlich gibt es noch eine Latenzzeit, die dadurch bestimmt wird, wielange die Grafikkarte braucht, umdas nächste Bild zu berechnen und auszugeben. Diese Zeit ist bei 30 Frames höher als bei 60 Frames und sorgt dafür, dass man länger auf ein Feedback der eigenen Reaktionen warten muss. Die liegt im Millisekundenbereich, aber zur Verdeutlichung: Wenn du auf einen Gegner zielst, der sich aber in der Zwischenzeit bereits weiterbewegt hat, bevor das bei dir angekommen ist, drückst du ins leere ab. Du behauptest, dass es diese Verzögerung ab 25 Frames nicht mehr gibt.

Nun gut, probiers mit TDU oder lass es, dein Standpunkt wird nicht richtiger, auch wenn du noch so sehr daran festhältst.
 
Es wird zwischen jedem Bild verwischt (Motion Blur). Dieser Motionblur muss tw. künstlich hinzugefügt werden (bei Actionfilmen zB), ohne diesen würde auch das Kinobild ruckeln.

Das ist mal, salopp gesagt, Quatsch. Künstliches Motion Blur wird eingefügt um eine Scene schneller erscheinen zu lassen als sie es tatsächlich ist. Natürliches Motion Blur ist immer ein Effekt von zu langer Belichtung. Glaubst du wirklich, dass man vor 50 Jahren schon in jeden Film künstliches Motion Blur eingefügt hat? Mit Sicherheit nicht und die John Wayne Filme ruckeln dennoch kein Stück. Und die haben nur 23 fps (deshalb drehen sich in den alten Filmen u.a. die Wagenräder von Kutschen z.B. rückwärts entgegen der Fahrtrichtung ;)).

Der Rest deiner Ausführung ist im großen und ganzen richtig, nur ein paar Dinge will ich hier mal anmerken

Bei Strategiespielen wirds natürlich nicht auffallen

Oben hast du geschrieben dass Starcraft 2 mit 27 fps unspielbar:

unter 40 kannst du wirklich nicht behaupten, dass das läuft. 27 Frames sind bereits ein deutliches Geruckel

Sag mal, welches Starcraft meinst du? Also das, dass ich mein, das ist ein Strategiespiel und nach deiner jetztigen Aussage ists wohl doch OK. Klassisches Eigentor? ;)


Du behauptest, dass es diese Verzögerung ab 25 Frames nicht mehr gibt.

Falsch. Schau noch mal genau hin. Jetzt redest du von einer Verzögerung, vorher gings ums ruckeln. Verzögerung != Ruckeln. Das hab ich oben in der Art auch schon geschrieben:

Es ist ein Unterschied ob man 200 fps "merkt" oder "sieht".

Man sieht keinen Unterschied zw. 60 und 100 fps, aber ich erkläre dir gerne die Problematik

Das hättest du dir sparen können denn ich schrieb ja schon:

Der Vorteil von 200 fps ist, dass ein Einbruch der fps-Rate (z.B. wie bei einem Scenen-Wechsel) nicht so schnell auffällt als z.B. bei einer fps-Rate von 60 oder 30
 
Diese Studien würde ich gerne mal sehen. Hast du die Titel dazu oder gar einen Link? Es ist ein Unterschied ob man 200 fps "merkt" oder "sieht". Sehen kann mans nicht.

Ich schau gerne nach, ob ich die Literaturliste behalten habe. Aber hat schon seinen Grund, dass ich „unter Umständen“ und „auflösen“ geschrieben habe und nicht „sehen“. Das Auge sieht ja nicht in „Bildern pro Sekunde“ sondern quasi-kontinuierlich.

Und klar kenne ich Bewegungsunschärfe, hatte ich ja weiter vorne dazugeschrieben (Motion Blur). Wenn Du schon mal versucht hast, ein spielendes Kind zu photographieren wird Dir sicher auch aufgefallen sein, dass man recht schnelle Verschlusszeiten brauchen kann, damit auch nix verwischt. Etwas weiter gefasst – 1/10000s und schneller sind heute in der Hochgeschwindigkeitsphotographie „normal“.

In den allerallermeisten Fällen hast Du also auch bei uralten Filmen je nach Kontrast, Helligkeit etc. der Ausgangsszene und Geschwindigkeit der Bewegung Unschärfe auf dem einzelnen Bild. Wodurch dann auch die üblichen niedrigern Frame-Raten der Wiedergabemedien nicht weiters weh tun.

Bei Spielen fehlt diese Bewegungsunschärfe meistens, es wird halt Bild für Bild gerendert. Je nach Grafiktreiber und -Einstellung hast Du jedoch gegebenenfalls auch bei 20 fps kein Ruckeln, dafür „zieht die Maus nach“ oder „die Steuerung ist schwammig“. Je nach persönlicher Präferenz und Spiel stört dieser Effekt mehr oder weniger; wenn das Spiel aber erst nach 3 Bildern reagiert und die Framerate auf 10 fps oder so eingebrochen ist, weil die Grafikkarte zu lahm ist, stört es eigentlich immer.
 
Sag mal, welches Starcraft meinst du? Also das, dass ich mein, das ist ein Strategiespiel und nach deiner jetztigen Aussage ists wohl doch OK. Klassisches Eigentor?

27 Frames fallen bei SC2 auf, ich meine den Unterschied zwischen ca. 40 und ca. 100 fps, den merkt man nicht.

Der Vorteil von 200 fps ist, dass ein Einbruch der fps-Rate (z.B. wie bei einem Scenen-Wechsel) nicht so schnell auffällt als z.B. bei einer fps-Rate von 60 oder 30

Das ist nicht ein Vorteil, sondern ein Muss. Was nützen dir 30 Frames, wenn du bei einem Schusswechsel dann nur mehr 20 hast und zu Boden gehst?

Es ist ein Unterschied ob man 200 fps "merkt" oder "sieht"

Und? Es geht hier um das Feeling und wenns das bei einem schnellen Shooter laggt, ist mir egal, ob das jetzt an der Reaktionszeit oder an meinen Augen liegt, das Ergebnis ändert sich dadurch ja nicht.

Mit Verzögerung hab ich denke ich das Ruckeln gemeint. Es wird langsam etwas unübersichtlich, wenn du weiter diskutieren und auf deinem Standpunkt ausharren willst, ohne dir den Unterschied selbst zu Gemüte zu führen, fass doch bitte mal zusammen, worüber wir uns eigentlich genau streiten.
 
fass doch bitte mal zusammen, worüber wir uns eigentlich genau streiten.

Den Faden verloren? Es geht darum ob 25 fps ruckelt wie Hulle oder obs eine flüssige Darstellung ist.

ohne dir den Unterschied selbst zu Gemüte zu führen

Ich hab den Unterschied schon beschrieben bevor du ankamst und gefordert hast, dass ich mir den Unterschied mal anschaun sollte. Hast du das nicht gelesen?



Ich schau gerne nach, ob ich die Literaturliste behalten habe.

Die Liste interessiert mich immer noch. Die wenigsten Menschen, die ich so kenne, haben Anzeigegeräte, die mehr als 75 Hz machen, ein paar Wenige 100 Hz. Wie die einen Unterschied im Film/Spiel zwischen 100 fps und 200 fps "sehen" können wollen ist mir schleierhaft wenn nicht mal das Anzeigemedium in der Lage ist diesen Unterschied darzustellen.

Je nach Grafiktreiber und -Einstellung hast Du jedoch gegebenenfalls auch bei 20 fps kein Ruckeln, dafür „zieht die Maus nach“ oder „die Steuerung ist schwammig“

Danke für das schöne Beispiel dass man den Unterschied "merkt" aber nicht "sieht". Damit hast du den Nagel auf den Kopf getroffen denn darum gehts hier ja die ganze Zeit über.

Sollte noch was Sinnvolles kommen mach ich vielleicht auch mit, die letzten zwei Posts haben jedoch enormes Flame-Potential und darauf hab ich keine Lust.
 
Danke für das schöne Beispiel dass man den Unterschied "merkt" aber nicht "sieht". Damit hast du den Nagel auf den Kopf getroffen denn darum gehts hier ja die ganze Zeit über.

On-Topic geht es um das, ja. Andererseits hast Du ja auch behauptet, es sei physikalisch unmöglich, mehr als 25fps zu „sehen“ (also den Unterschied zu höheren Bildwiederholraten). Wenn dem so wäre hätten Röhrenfernseher 50/60 Halbbilder/s und langsames Phosphor nicht nötig gehabt und würden auch so nicht als „Flimmerkisten“ gelten. Oder dass man in CGI-Filmen Motion-Blur einbindet, damit die Animationen geschmeidig bleiben.

Oder setz Dich in einem dunklen Zimmer vor einen CRT mit 50 Hz (Vollbilder, nicht Fernseher). Dann wedle mit der Hand vor dem Bild herum. Du wirst Mehrfachbilder der Finger sehen. Das Auge konnte also 50 „Frames“ pro Sekunde auflösen. Der Test funktioniert auch mit gewissen Leuchtmitteln wie einzelnen Neon-Röhren im Dunklen, ist aber auch ein Beleg dafür, weshalb ich oben immer von „Umständen“ gesprochen habe.

Wegen der Literaturliste schaue ich heute nach (liegt alles immer noch in Umzugskartons), zu den angesprochenen FPS-Tests im Netz hier ein Beispiellink:

http://www.boallen.com/fps-compare.html

Ansonsten auch immer wieder gerne gesehen:

http://www.gametrailers.com/user-movie/60-fps-vs-24-fps-a-comparison/85283

Allerdings hast Du schon recht – wird langsam etwas off-topic. Die Vorteile, wenn ein Computer so 60+ fps im Schnitt liefern kann sind hier schon durchdiskutiert worden. Seien es direktere Steuerung (falls man nix am Prerender-Limit schrauben kann) oder dass die Chance geringer ist, dass bei heftigeren Gefechten die Framerate in den einstelligen Bereich abfällt.
 
Das Video hab ich bereits gesucht, dankeschön. So madcat, jetzt musst du es nicht ausprobieren, das hast du definitiv nicht, sondern bekommst als Video serviert. Aber wahrscheinlich siehst du das jetzt einfach nicht und behauptest stur das Gegenteil :rolleyes:
 
Wenn dem so wäre hätten Röhrenfernseher 50/60 Halbbilder/s und langsames Phosphor nicht nötig gehabt

Flimmern != ruckeln. Und das langsame Phosphor hatten diese Kisten nicht nötig um einen flüssigen Bewegungsablauf darzustellen. Warum man eine Phosphormatte benutzte hatte ganz gewiss andere Gründe (vgl. z.B. Oszilloskope mit Röhrenstrahlelektrode, die arbeiten nach dem gleichen Prinzip wie so ein Röhrenmonitor/Fernseher).

Oder dass man in CGI-Filmen Motion-Blur einbindet, damit die Animationen geschmeidig bleiben.

Könnte es sein, dass man Motion Blur bei CGI-Filmen einsetzt um einen natürlichen Bewegungsablauf zu simulieren? Natürliches Motion Blur gibts nämlich in CGI-Filmen nicht. Auch das hat nichts mit Ruckeln zu tun.

Oder setz Dich in einem dunklen Zimmer vor einen CRT mit 50 Hz (Vollbilder, nicht Fernseher). Dann wedle mit der Hand vor dem Bild herum. Du wirst Mehrfachbilder der Finger sehen. Das Auge konnte also 50 „Frames“ pro Sekunde auflösen

Konnte das Auge das wirklich sehen oder hab ich durch das Wedeln der Hand bestimmte Frames ausgeblendet und somit die Framerate künstlich herabgesetzt wodurch das Auge die veränderte Framerate gesehen hat? Gegenbeispiel: Nimm einen Bleistift zwischen Daumen und Zeigefinger und wedele damit vor deinem Auge. Frage hierzu: Verbiegt sich der Bleistift wirklich? Und da haben wir quasi unendlich viele Frames per Second. ;)

Dein erster Link ist sehr nett. Ruckelt denn selbst die Anzeige mit 15 fps? Oder ist das nicht doch ein flüssiger Ablauf? Nochmal zur Erinnerung für dich:

Es geht darum ob 25 fps ruckelt wie Hulle oder obs eine flüssige Darstellung ist.

Darum gehts hier in der Diskussion. Ich habe den Eindruck, dass ihr glaubt ich meine man würde keinen Unterschied zwischen 25 und 50 fps bemerken. Dem ist mitnichten so und das habe ich auch nie gesagt.
 
Hmm.

Darum gehts hier in der Diskussion. Ich habe den Eindruck, dass ihr glaubt ich meine man würde keinen Unterschied zwischen 25 und 50 fps bemerken. Dem ist mitnichten so und das habe ich auch nie gesagt.

Fernseh und Kino muss für dich ja die Hölle sein, da hat man ja nur 25 Frames pro Sekunde. Wieso wusste ich nur wieder dass du zur Fraktion gehörst "Ich kann einen Unterschied zwischen 30 und 60 FPS sehen auch wenns physikalisch Unmöglich ist". Wahrscheinlich siehst du auch einen Unterschied zwischen 60 und 100 fps. Hier erübrigt sich jede Diskussion.

Ich glaube, es ist an der Zeit uns mal festzulegen, wie Du „sehen“ und „bemerken“ im Kontext mit dem Thema (Ruckeln und Spielbarkeit beim Spielen an einem mobilen Mac) unterscheidest. Oder wie Du „Ruckeln“ überhaupt definierst; Dein Einwurf mit den 15 fps könnten ein flüssiger Ablauf sein – immer im Kontext Computerspiele – klingt nach einer recht … individuellen Definition im Spieleumfeld.

Verstanden habe ich Dich so:

Du siehst keine geschmeidigere Bewegungen bei 50 oder 60 FPS verglichen zu 25 oder 30 FPS und sagst, das sei physikalisch unmöglich. Man kann die Effekte der unterschiedlichen Framerate aber durchaus bemerken, z.B. durch Mausverzögerung. So lange eine Bewegung erkennbar ist und man keine Einzel-Bild-Show hat, ist es eine flüssige Bewegung. Flüssiger, geschmeidiger oder spielbarer bei Games wie Quake3 ist hier nicht Gegenstand Deiner Beiträge.

Richtig verstanden? Falls nein klinke ich mich aus, hat dann offenbar keinen Zweck, die Diskussion zu verfolgen.

(P.S. Ich habe nicht behauptet, dass das Bildschirmflimmern etwas mit Ruckeln in Spielen zu tun hat.)
 
Du siehst keine geschmeidigere Bewegungen bei 50 oder 60 FPS verglichen zu 25 oder 30 FPS und sagst, das sei physikalisch unmöglich. Man kann die Effekte der unterschiedlichen Framerate aber durchaus bemerken, z.B. durch Mausverzögerung. So lange eine Bewegung erkennbar ist und man keine Einzel-Bild-Show hat, ist es eine flüssige Bewegung. Flüssiger, geschmeidiger oder spielbarer bei Games wie Quake3 ist hier nicht Gegenstand Deiner Beiträge.

In einem Forum zu diskutieren ist immer schwierig aber ja, so hab ich es gemeint, da hast du mich richtig verstanden denke ich.

Ich habe nicht behauptet, dass das Bildschirmflimmern etwas mit Ruckeln in Spielen zu tun hat.

Um nochmal einen kleinen Exkurs zum Flimmern zu machen. Bei einem Röhrenfernseher verwendete man das Halbbildverfahren nicht um eine flüssigere Bewegung darzustellen sondern weil die Leuchtschicht nicht ganz so träge ist wie du wahrscheinlich vermutest (unter Berücksichtigung deines Postes von heute Morgen). Würde man ganze Bilder verwenden dann würde man immer sehen, dass jedes Bild einen Helligkeitsunterschied hätte und dieser würde ggf. durch das Bild wandern und das wäre sehr störend. Das sieht man z.B. auf etwas ältere Fernsehaufnahmen wo mal ein Röhrenbildschirm abgefilmt wurde. Da kann man u.U. einen dunklen Streifen im Bild sehen der da durchwandert was nur die schon wieder abglimmende Leuchtschicht darstellt. Durch die Halbbildmethode lässt sich dieser Effekt deutlich veringern. Bei einem Kinofilm z.B. hat man aufgrund der Übertragungsart diesen Effekt nicht weshalb da auch keine Halbbilder zum Einsatz kommen. Da werden schlicht und einfach 25 Bilder pro Sekunde an die Leinwand projeziert und das menschliche Auge sieht flüssige Bewegungen. Übrigens, die üblichen 25 Bilder pro Sekunde kommen nicht vom menschlichen Auge sondern aus der Fernsehtechnik. Hat u.a. mit der Tonspur zu tun. Würde hier jetzt zu weit ins OT führen das zu erklären, schau mal bei Google nach sofern es dich interessiert.

Öhm, genau das hast du gesagt...

Wo habe ich gesagt, dass man keinen Unterschied zwischen 25 fps und 50 fps bemerken kann? Muss mir entgangen sein. Ich kann mich nur erinnern, dass ich schon die ganze Zeit über darauf hinweise, dass man den Unterschied sehr wohl bemerken kann. Lies dir meine Beiträge alle noch mal durch, du hast da offensichtlich etwas nicht verstanden oder falsch gelesen.
 
Fernseh und Kino muss für dich ja die Hölle sein, da hat man ja nur 25 Frames pro Sekunde. Wieso wusste ich nur wieder dass du zur Fraktion gehörst "Ich kann einen Unterschied zwischen 30 und 60 FPS sehen auch wenns physikalisch Unmöglich ist". Wahrscheinlich siehst du auch einen Unterschied zwischen 60 und 100 fps. Hier erübrigt sich jede Diskussion.
War doch eh vorhin zitiert.
 
Steht da was von sehen oder merken? Noch mal, lies dir meine Beiträge genau durch. Ich hab nie behauptet, dass man den Unterschied zwischen 25 und 50 fps nicht bemerken kann. Zusätzlich sei dir nochmal die Streitfrage in Erinnerung gerufen die du Vorgestern schon nachgefragt hattest:

fass doch bitte mal zusammen, worüber wir uns eigentlich genau streiten.

Es geht darum ob 25 fps ruckelt wie Hulle oder obs eine flüssige Darstellung ist.

Danke für deine Aufmerksamkeit.
 
Zurück
Oben Unten