eiq schrieb:
Lag scheinbar am Monitor, auch testweise an einer Radeon 9500 angeschlossen lief er nur mit 60Hz.
Das Problem hat sich mittlerweile glücklicherweise durch ein 17"-TFT von Eizo gelöst. Jetzt fehlt nur noch mein mini...
Gruß, eiq
Sehr unwahrscheinlich, in dem Fall hat entweder der Treiber begrenzt oder die 60Hz waren fest voreingestellt. Aber Glückwunsch zum TFT, alles andere ist eh ne Qual.
Blaubierhund schrieb:
das ist aber eher unwahrscheinlich, da der dvi-ausgang ja nicht nur die digitalen signale, sondern auch analoge signale ausgibt. der adapter wandelt also nix um, sondern stellt eigentlich nur die steckverbindung für die vga-stecker zur verfügung - d.h. die verdrahtung wird geändert...
Richtig, es gibt höchstens Unterschiede dahingehend, ob er intern per Platine oder per Verkabelung aufgebaut ist. Was dann schon wieder einen Einfluss haben kann.
Ansonsten hatte ich durch zahlreiche Nerverrei (im 3DCenter-Forum) mal einen kleinen Artikel zum Thema Signalqualität geschrieben. Im PC Bereich war das vor Jahren bei vielen Grafikkarten ein Problem, das heute in der "Qualität" nicht mehr gegeben ist. Da es sich um passive Elektronik handelt die hier wirkt, kann man das Problem auch nicht einfach per Software lösen, höchstens indem man die Filter "entfernt". Hier der Artikel, in leicht gekürzter Form:
Thowe schrieb:
Es wurde ja im Forum schon häufig über die Signalqualität bei Grafikkarten diskutiert, teilweise sachlich, häufig aber mit Beispielen von Grafikkarten die einfach nie dieser Problematik unterlagen (CE). Leider habe ich aber genau so oft wie diese Thematik diskutiert wurde auch ein gewisses Grundverständnis über die Art und Weise wie Signalqualität erreicht wird vermisst. Alle Hinweise zum Thema die ich im Netz gefunden habe waren leider entweder so technisch das die nicht jeder verstehen kann oder aber schlichtweg falsch. Das war der Grund das ich mich dazu durchgerungen haben einen eigenen Artikel darüber zu verfassen, unter der Betrachtung der leichten Verständlichkeit und nicht unter den Gesichtspunkt der absoluten Erklärung.
Was ich erreichen und erneut betonen möchte ist das jeder diesen Artikel verstehen kann.
...
Fluch oder Segen, die CE-Norm macht das Ausgangssignal von Grafikkarten unbrauchbar.
Alle Komponenten werden im PC recht effektiv durch das Gehäuse gegen Störstrahlungen geschirmt anders sieht dies bei der Grafikkarte aus. Gute Grafikkarten haben einen RAMDAC um die 300 Mhz oder sogar mehr, diese hohen Frequenzen liegen direkt an der Ausgangsbuche an und müssen um der CE-Norm zu entsprechen gefiltert werden. Dies wird durch RCL-Filter (Widerstände, Kondensatoren, Spulen) erreicht, leider schwächen sie aber auch das Nutzsignal ab.
Die Signalamplitude, das ist die Höhe der maximalen Ausgangsspannung der Grafikkarte, sollte im besten Fall bei 0.7V liegen. Hierbei bedeutet eine Amplitude von 0V=Dunkel und 0.7V=maximale Helligkeit.
Die Filter sind frequenzabhängig, d.h. je kleiner die Auflösung eingestellt ist (kleine Ausgangsfrequenz), desto höher ist das Ausgangssignal dieses darf aber 700mV nicht übersteigen da ansonsten die Bilddarstellung auf den Monitor durch die Übersteuerrung massiv leidet. Bei hohen Auflösungen werden durch die Filter die Nutzspannung abgeschwächt und der Pegel des Ausgangssignals sinkt. Liegt dieser unterhalb von 0.5V muss die Helligkeit am Monitor nachgeregelt werden, dies bedeutet eine höhere Belastung des Monitors und der Dynamikumfang des Bildsignales sinkt.
Eigentlich ist es nur möglich den Ausgangsfilter für eine Frequenz optimal zu berechnen, hier sind aber die Grafikkartenkonstrukteure teilweise überfordert. Die Problematik ist hier das der PC ja in extrem geringen Auflösungen und Bildwiederholfrequenz startet und erst mit der Initialisierung der Bildschirmtreiber in Windows der Monitor auf echte Auflösungen und Frequenzen gesetzt wird.
In der "DOS-Auflösung" liegen fast alle Karten oberhalb von 800 mV, dies zeigt sich durch ein helles Bild und das teilweise "leuchten" einiger Buchstaben. Optimiert wird für die Auflösungen 1024x768 und 1280x1024, hier liegt i.d.R. alles im optimalen Bereich von 700mV. Bei vielen Karten sinkt aber bei den erhöhen der Auflösung der Pegel massiv und somit die Darstellungsqualität.
Eine sehr gute Grafikkarte wie die Matrox G450 liegt im Rahmen von 700-780mV und liefert somit immer ein nahezu optimales Bild. ...
Darauf eingehend sei gesagt, das wenn jemand zwischen seinem PC und dem Mac Mini keinen Unterschied in der Darstellungsqualität sieht darin begründet ist, das seine Karte im PC selbst keine gute Qualität lieferte. Es gibt da immer noch massive Qualitätsunterschiede.
Jeder Monitor reagiert ebenfalls anders auf das angelieferte Signal, es ist durchaus vorstellbar, das einige Displays gar nicht mit diesem arbeiten und schlicht weg gar kein Bild darsellen. Das Problem ist bei CRTs eher nicht zu erwarten, dafür sinkt eben die Grundhelligkeit, die ansonsten eher maue Qualität werden viele aus Erfahrung gar nicht bemerken.
Darstellungsqualität ist ansonsten sehr subjektiv, ähnlich wie man das Aussehen einer Frau beurteilen mag. Was der Eine als akzeptabel und der Andere als schön ansieht, mag ein Dritter als völlig indiskutabel ansehen. Weswegen es sehr müßig ist, darüber zu diskutieren ob das Ausgangssignal des Minis gut ist oder nicht, gemessen bei typischen Auflösungen ist es das eben nicht. Das kann Apple mit einer neuen Serie (bedingt) ändern, aber eine exzellente Qualität wird wohl niemals gegeben sein.
Richtigerweise ist also der Vorschlag den Mini nur digital anzuschliessen der beste den man machen kann und wer einmal den Unterschied zwischen analog und digital angesteuerten Displays gesehen hat, der wird eh nicht mehr analog wollen. Die analoge Ansteuerung ist für TFTs so oder so nicht nur Humbug, sondern eigentlich unverständlich. Unter normalen Umständen wäre ein rein digitales Display günstiger in der Herstellung als ein analoges, was dem ganzen irgendwie ein relativ ironischen Touch gibt.