Was sind für OSX 60Hz?

Kaito

Aktives Mitglied
Thread Starter
Dabei seit
31.12.2005
Beiträge
7.093
Reaktionspunkte
1.844
Hallo,
vorweg: ich bin nicht sicher, ob ich hier richtig bin.

Wenn ich in Systemeinstellungen -> Display sehe, dann werden mir bei meinem hier angeschlossenen Dell u2312 "60Hz" angeboten.
Was versteht OSX hierunter? Handelt es sich um 60Hz, oder sind es 60000/1001?
Ich hab mir mal die EDID des Monitors ausgegeben und mit Wiki und einem Hexeditor durchgeschaut, aber nicht nur sehen die dortigen vorbestimmten Profile gar keine 60000/1001Hz (sondern nur "60") vor, auch die detaillierten Timings haben gar nicht die notwendige Bitzahl um so eine Zahl wie 60000/1001 zu repräsentieren. Gleichzeitig aber gibt es definitiv (Computer)Displays die mit 60000/1001Hz laufen.

Was läuft schief? Was verstehe ich schief?
Ich habe gelesen, dass Windows diese Zahl auf 60Hz aufrundet (bzw. abrundet, auf 59). Macht OSX das auch?
 
Zuletzt bearbeitet:
Wozu brauchst du 60000/1001? Warum bist du nicht mit 60 Hz zufrieden?
 
Hä? Ich hab doch nirgendwo gesagt, dass ich das brauche. Ich will wissen was ich (wirklich) habe, ohne eventuelle Rundung von seiten OSX.
 
Irgendwie verstehe ich dein Problem nicht: Warum gehst du davon aus, dass etwas schief läuft?
 
Ist die Frage echt so missverständlich gestellt?

- Mit wie viel Hz läuft mein Monitor? 60 oder 60000/1001?
- Zeigt mir OSX 60000/1001 als "60" in den Systemeinstellungen an?
 
Darf ich es deswegen nicht wissen?
 
Zum besseren Verständnis: 59,94 Hz ist die NTSC-Bildwiederholfrequenz, man braucht das bspw, wenn man ohne Mikroruckler BluRay-Filme abspielen will. Deshalb ist es durchaus nützlich zu wissen, ob nun echte 60Hz oder eben 59,94Hz ausgegeben werden.

Allerdimgs kann ich auch nicht sagen, welche Frequenz Apple tatsächlich ausgibt. Ich tippe auf echte 60Hz.
 
Zum besseren Verständnis: 59,94 Hz ist die NTSC-Bildwiederholfrequenz, man braucht das bspw, wenn man ohne Mikroruckler BluRay-Filme abspielen will. Deshalb ist es durchaus nützlich zu wissen, ob nun echte 60Hz oder eben 59,94Hz ausgegeben werden.
Danke für die Info.
 
Allerdimgs kann ich auch nicht sagen, welche Frequenz Apple tatsächlich ausgibt. Ich tippe auf echte 60Hz.
Via google hab ich herausgefunden, dass Windows das "nutzerfreundlich" rundet und genaue Infos von den Grafiktreibern zu bekommen sind, aber solche habe ich hier unter OSX ja nicht zum nachschauen.
Es gibt Testseiten wie http://www.testufo.com/#test=framerates. Dieser zeigt mir munter 60fps an, wenn ich mir aber das JavaScript Objekt direkt anschaue, dann ist das nur eine geschönigte Repräsentation und intern ist es ein krummer Float.
Quartz Debug aus den Xcode Graphic Tools kann die aktuelle Framerate ausgeben, allerdings nicht sonderlich genau. Lasse ich etwas mit fixen 60fps laufen, zeigt dieser folgende Darstellung:
Screen Shot 2015-02-06 at 00.12.39.png
Man befindet sich meist auf 60fps, aber alle paar Sekunden kommt kurz ein "Einbruch" auf 59, was eventuell auf 60000/1001 hindeuten könnte, aber die Anzeige finde ich viel zu ungenau um daraus konkrete Schlüsse zu ziehen, ein Hinweis aber kann es sein. Ich finde nichts von Apple das mir genaue/verlässliche Werte/Infos angibt.

Die EDID parser die ich so gefunden hab benutzen 59,94 und 60 oft synonym, z.B.: https://github.com/dgallegos/edidreader/blob/master/app/js/edid.js#L51

Danke für die Info.
Und noch eine zusätzliche: auch das "24fps" Marketingwort für BluRay Filme ist in Wirklichkeit 24000/1001. Fernseher die diese "24" fps BluRays unterstützen, unterstützen entsprechend 24000/1001Hz.
Aber um ehrlich zu sein bin ich mir gar nicht sicher ob man den Unterschied so groß bemerken würde. Was man allerdings ganz gut bemerkt (ich zumindest) ist das Abspielen von 24000/1001 auf einem 60Hz Display, weil das teilt sich so gar nicht schön. Leider.
 
Hab ich einen neuen Trend verpasst auf jede Frage, die man nicht beantworten kann oder versteht, mit "wieso brauchst du das überhaupt" zu antworten?
Wieso ist es überhaupt relevant wieso ich das wissen will? Darf ich es nicht "einfach so" wissen wollen? Das gesuchte Wort nennt sich "Interesse". Ich lasse auch "Neugier" gelten.


Tut mir leid wenn ich etwas pampig reagiere, aber ich kann es gerade nicht so richtig fassen, wie sich dieser Thread mehr darum dreht, meine Berechtigung für die Frage festzustellen, als um die Frage selbst.
 
Ich denke eher, er hat interessiert nachgefragt, wozu man den Unterschied wissen muss,
so allgemein.

Wobei das ja mittlerweile schon erklärt wurde. Was ich übrigens sehr interessant fand,
ich hatte auch noch nie von solchen Unterschieden gehört. Darum hatte ich (stellvertretend
für alles Nichtwisser) auch nachgefragt.
 
Dann will ich mich entschuldigen und nichts gesagt haben.

Persönlich ist es für mich in zwei Punkten relevant: zum einen die von JeanLuc7 genannte Sache mit dem Abspielen von Videometerial allgemein, zum anderen kann man ein Video mit z.B. 24fps via Motion Interpolation und ähnlichen Späßen auf 60fps bringen um (je nach Videomaterial) sichtbare Ruckler zu vermeiden. Hier wäre interessant was die Ziel-FPS sein sollten. Im Grunde geht es immer um Ruckler, die durch nicht-ohne-Rest-durcheinander-teilbare-FPS-und-Hz-Werte entstehen, da in diesem Fall manche Frames des Videos länger angezeigt werden als andere -> Ruckler.
 
Zuletzt bearbeitet:
Dein Monitor läuft nicht mit Herz (Hz). Das ist eine Eigenschaft von Röhrenbildschirmen gewesen. Die Frage, wieviele Bilder pro Sekunde Dein moderner Bildschirm ausgibt ist eine andere. :)
 
Warum sollten es keine Hertz sein? Vorgänge pro Sekunde, trifft doch genau so zu, oder warum nicht?
 
Dein Monitor läuft nicht mit Herz (Hz). Das ist eine Eigenschaft von Röhrenbildschirmen gewesen. Die Frage, wieviele Bilder pro Sekunde Dein moderner Bildschirm ausgibt ist eine andere. :)

Du scheinst jetzt nicht so der wahre Experte zu sein, wenn es um Monitore und Bildwiederholfrequenzen geht. Wie arbeitet denn deiner Meinung nach so ein TFT-Monitor, wenn er hintereinander 60 unterschiedliche Bilder darstellen soll?

Es wird gerne das "Flackern" der Röhrenmonitore und der daraus resultierende Bedarf nach hoher Bildwiederholfrequenz (mindestens 72Hz) mit der Flackerfreiheit der TFTs auch bei niedrigen Frequenzen verglichen (bei 4k auch schon mal 30Hz) - und daraus geschlossen, es gäbe keine Bildwiederholfrequenz. Das ist aber natürlich nicht richtig, nur bleibt gewöhnlich bei TFTs die Hintergrundbeleuchtung dauerhaft an, während bei der Bildröhre der vom Elektronenstrahl überschriebene Bereich danach wieder verblasst - man also zwischendurch eine Menge Dunkelheit sieht, die sich dann als Flackern äußert. Aber selbstverständlich haben auch TFTs messbare Bildwiederholfrequenzen, die dann mit der Einheit Hz (Hertz mit "T" nach dem deutschen Physiker Heinrich Hertz) bezeichnet werden.
 
Offenbar hast Du die Eingangsfrage nicht richtig gelesen. Er erfragt das ganze aus der Sicht der Software: "Was versteht OSX hierunter?". Wieviele Bilder pro Sekunde die Software über die Grafikkarte an den Bildschirm sendet ist eine Sache. Wie oft pro Sekunde der Bildschirm das Bild neu aufbaut eine andere. :)
 
Wieviele Bilder pro Sekunde die Software über die Grafikkarte an den Bildschirm sendet ist eine Sache. Wie oft pro Sekunde der Bildschirm das Bild neu aufbaut eine andere. :)

Tatsächlich kann man diese beiden Wiederholfrequenzen trennen, und wenn Du das schon so genau ausführst, kommt sogar noch eine dritte Frequenz dazu, nämlich die, in der der Bildspeicher beschrieben wird. Spieler kennen dieses Drama. Trotzdem ist dein Posting aus technischer Sicht unterirdisch gewesen.
 
Zurück
Oben Unten