Röhrenmonitor am Mini

Vergiss DVI!

Hi mrwho,

wie u.a. ich und MacKaye schon geschrieben haben ==> auch Probleme bei DVI.
Gehe lieber auf Nummer sicher und tausche die Kiste lieber!!!

Der VGA Ausgang muss!! funktionieren!!
 
saroman schrieb:
Eine PC Zeitschrift testet einen MAC "Applaus"

Ich habe den mini zwar noch nicht und nutze auch einen 8 Jahre alten 21" Monitor und wüsste nicht warum das Bild mies sein sollte !

Und wenn das Bild mies wäre, dann würde Apple nicht die Switsher als Zielgruppe haben denn es geht Apple darum das man Monitor u.s.w. bereits hat
Sorry, aber was soll das? Du hast das Bild noch nicht gesehen? Aber weißt jetzt schon, dass der sorgfältig durchgeführte Test einer PC Zeitschrift weniger bedeutet als Deine Einbildung.
NUN DIE BITTERE WAHRHEIT: Auch Apple ist ein Unternehmen dass alles so billig wie möglich macht um max. Gewinn zu erziehlen. Darunter leidet auch die Qualität. Hier war wohl etwas zu viel des Guten mit sparen :) Immer dieser Applehype -> www.brandinfection.com ;)

BTT:
Auf jeden Fall schade. Auch der hiesige AppleStore hat mir von dem Teil abgeraten als ich sagte ich will den MM neben dem PC (DVI) am Analogport meines TFT betreiben.

MfG Florian.
 
ich arbeite von anfang an mit röhre: hyundai q995 flat. sein preis- leistungsverhältnis ist richtig gut. das bild vom mini ist i.O. - ich habe da nix zu beanstanden. mir geht es vorrangig um farben in der bildbearbeitung - vergleichbare tft's (eizo etc.) sind da noch teuer. und ausserdem: analoge geräte haben schon die eigenschaft im vergleich zu dvi gestützten produkten schlechter abzuschneiden, also warum wundern sich dann hier einige und staunen löcher in die luft?

svbway ;)
 
Hi Svbway,
mich würde mal interessieren wenn du Bildverarbeitung damit machst und es dir hauptsächlich auf die Farben ankommt hast du ein vergleich zu einem anderen Mac oder PC. Ich habe noch keinen CRT Monitor bis jetzt gesehen der über den VGA Ausgang des Mini ein Weiss darstellt. Das heißt selbst wenn alles an Helligkeit und Kontrast bis hintenhin drin ist bleibt bei jedem Monitor das Weiss Grau.
Ich will jetzt nicht behaupten das es bei dir nicht so ist, also dass das Bild gut ist aber ich arbeitet seit 15 Jahren im DTP Bereich und hab schon manch schlechtes Bild oder Monitor gesehen aber das was der Mini über den VGA Ausgang rausgibt ist bis jetzt das schlechteste was ich kenne und für Farbretusche absolut nicht zugebrauchen.
Sollte es bei deinem Monitor wirklich anders sein?

Nette Grüsse Socke
 
mini probeweise am Samsung SyncMaster 172T

Ich habe mir mal den TFT meines Bruders ausgeliehen. Ich muss sagen, tolles Bild, kein Vergleich zum VGA. Daher denke ich nicht, dass der DVI-Ausgang des mini schlecht ist.
 
hi,

so wie ich das sehe ist bei mir das Bild am Mini genauso gut, wie am PC. IIyama 19" CRT. Ich freu mich und kann damit gut arbeiten :D

steve
 
Also bei den Apple Discussions und bei Macfixit gibt's schon lange eine große Debatte über den Mac mini und Monitore. Grobes Fazit: DVI ok, VGA in einigen Fällen schwierig, öfters dunkel und matschig. Meist wird auf den Adapter als Verursacher getippt.

Ein User hat bei den Apple Discussions eine Liste der in der Debatte erwähnten Monitore zusammengestellt:

- hier klicken -

Wie zu sehen, herrscht da bei vielen Geräten ein uneinheitliches Meinungsbild.

Viele erwarten, dass Apple da bald reagiert - etwa mit Adapter-Tausch oder einem Firmware-Update oder ähnlichem. Wann und ob das Fall sein wird, weiß natürlich niemand. Anscheinend sind die bei Apple selber noch am Grübeln, an was es liegt.

Eine Sofort-Maßnahme bei dunklen Monitoren wurde ebenfalls erwähnt:

In Systemeinstellungen/Bedienungshilfen kann der Kontrast neben den Einstellungen im Monitor-Kontrollfeld sehr, sehr drastisch verändert werden. Vielleicht verschafft das dem Einen oder Anderen ein bisschen ein helleres Bild.
 
Zuletzt bearbeitet von einem Moderator:
Socke schrieb:
Hi Svbway,
mich würde mal interessieren wenn du Bildverarbeitung damit machst und es dir hauptsächlich auf die Farben ankommt hast du ein vergleich zu einem anderen Mac oder PC. Ich habe noch keinen CRT Monitor bis jetzt gesehen der über den VGA Ausgang des Mini ein Weiss darstellt. Das heißt selbst wenn alles an Helligkeit und Kontrast bis hintenhin drin ist bleibt bei jedem Monitor das Weiss Grau.....
.... Sollte es bei deinem Monitor wirklich anders sein?

Grüsse,
das was man von einem CRT erwarten kann ist bei meinem auf jeden Fall gegeben. Die Schrift ist klar und scharf - das Weiß ist (fast) weiß. Würdest Du in der Druckvorstufe mit so einem CRT arbeiten? Sicher nicht, aber für zu Hause ist das Gerät überdurchschnittlich gut - deswegen spare ich mir viel Geld für die Notwendigkeit eines Hochwertigen DVI TFT´s.
Meine Aussage: ich kann mit meiner Konfiguration die Probleme die im Zusammenhang mit dem mini auftreten absolut nicht bestätigen! Ich denke schon das die breite Masse mit Ihren Beobachtungen Recht hat - die Qualität des analogen Gerätes aber auch eine wesentliche Rolle spielt.

also dann einen schönen Abend für Dich
svbway
 
Dann warte ich mal gespannt auf meinen neuen Samsung Monitor in der Hoffnung das da das Bild besser ist als bei meinem Sony CRT.

Gruss Socke
 
würe mich auch interessieren - schreib mir einfach mal ne PN wenn du magst. hoffe das du nicht enttäuscht wirst :cool:

svbway
 
Socke schrieb:
Dann warte ich mal gespannt auf meinen neuen Samsung Monitor in der Hoffnung das da das Bild besser ist als bei meinem Sony CRT.

Gruss Socke

Welchen denn, bin grad am Überlegen ob 701T oder 710T, (alles anderes ist mir gerade zu teuer :( )
 
eiq schrieb:
(...)

PS: Bin auch auf dem Weg zum Mac Mini, und das obwohl ich einen 7 Jahre alten 21"-CRT von Belinea mein Eigen nenne. Es kann halt nur besser werden, da das Teil derzeit an meiner Radeon 64 hängt und mit 60Hz meine Augen malträtiert. (laut Datenblatt schaffen beide 85Hz, aber ich merk davon nix) :D

Dafür gibts Tools im Netz (z.B. SuperRes), die alle möglichen Auflösungen aus den Monitoren kitzeln, mit der Radeon 64 geht sicher einiges mehr!!!
 
Nochmal zum Thema: Damit keine Missverständnisse aufkommen - der Mac mini wird auch in den Apple Discussions von den meisten Nutzern als sehr positiv eingestuft. Die Probleme im Bereich "Usage" halten sich in Grenzen, unter den rund 1500 eröffneten Forums-Themen von Mini-Nutzern aus aller Welt sind zum Teil sogar richtig begeisterte Stimmen dabei. Im Bereich "Display" beschäftigen sich dagegen nur ein Teil der rund 400 Postings mit dem VGA-Problemen, ansonsten sind auch dort Berichte von einem guten Bild am Mini zu lesen.
 
MacEnroe schrieb:
Dafür gibts Tools im Netz (z.B. SuperRes), die alle möglichen Auflösungen aus den Monitoren kitzeln, mit der Radeon 64 geht sicher einiges mehr!!!
Lag scheinbar am Monitor, auch testweise an einer Radeon 9500 angeschlossen lief er nur mit 60Hz.
Das Problem hat sich mittlerweile glücklicherweise durch ein 17"-TFT von Eizo gelöst. Jetzt fehlt nur noch mein mini... :)

Gruß, eiq
 
saroman schrieb:
wenn dann liegt das Problem nicht am MAC mini sondern am Adapter . Dann wäre es doch mal interessannt einen anderen Adapter falls erhältlich ist zu testen

das ist aber eher unwahrscheinlich, da der dvi-ausgang ja nicht nur die digitalen signale, sondern auch analoge signale ausgibt. der adapter wandelt also nix um, sondern stellt eigentlich nur die steckverbindung für die vga-stecker zur verfügung - d.h. die verdrahtung wird geändert...
 
eiq schrieb:
Lag scheinbar am Monitor, auch testweise an einer Radeon 9500 angeschlossen lief er nur mit 60Hz.
Das Problem hat sich mittlerweile glücklicherweise durch ein 17"-TFT von Eizo gelöst. Jetzt fehlt nur noch mein mini... :)

Gruß, eiq

Nein, der kann garantiert mehr als die 60 Hz, mit SuperRes klappt das auch.
Ohne SuperRes werden nicht alle möglichen Frequenzen erkannt. Wie soll
die neue 9500 auch alle frequenzen dieses alten teiles erkennen OHNE Hilfe?
 
MacEnroe schrieb:
Ohne SuperRes werden nicht alle möglichen Frequenzen erkannt. Wie soll die neue 9500 auch alle frequenzen dieses alten teiles erkennen OHNE Hilfe?
Ohne Hilfe? Wozu sind die Treiber da, wenn nicht für sowas?
An einer Matrox Parhelia unter Win 2000 läuft er problemlos. Mir wurscht, nu isser weg. :)
Werd SuperRes dennoch im Hinterkopf behalten, man weiß ja nie, was kommt.

Gruß, eiq
 
eiq schrieb:
Lag scheinbar am Monitor, auch testweise an einer Radeon 9500 angeschlossen lief er nur mit 60Hz.
Das Problem hat sich mittlerweile glücklicherweise durch ein 17"-TFT von Eizo gelöst. Jetzt fehlt nur noch mein mini... :)

Gruß, eiq

Sehr unwahrscheinlich, in dem Fall hat entweder der Treiber begrenzt oder die 60Hz waren fest voreingestellt. Aber Glückwunsch zum TFT, alles andere ist eh ne Qual.

Blaubierhund schrieb:
das ist aber eher unwahrscheinlich, da der dvi-ausgang ja nicht nur die digitalen signale, sondern auch analoge signale ausgibt. der adapter wandelt also nix um, sondern stellt eigentlich nur die steckverbindung für die vga-stecker zur verfügung - d.h. die verdrahtung wird geändert...


Richtig, es gibt höchstens Unterschiede dahingehend, ob er intern per Platine oder per Verkabelung aufgebaut ist. Was dann schon wieder einen Einfluss haben kann.


Ansonsten hatte ich durch zahlreiche Nerverrei (im 3DCenter-Forum) mal einen kleinen Artikel zum Thema Signalqualität geschrieben. Im PC Bereich war das vor Jahren bei vielen Grafikkarten ein Problem, das heute in der "Qualität" nicht mehr gegeben ist. Da es sich um passive Elektronik handelt die hier wirkt, kann man das Problem auch nicht einfach per Software lösen, höchstens indem man die Filter "entfernt". Hier der Artikel, in leicht gekürzter Form:

Thowe schrieb:
Es wurde ja im Forum schon häufig über die Signalqualität bei Grafikkarten diskutiert, teilweise sachlich, häufig aber mit Beispielen von Grafikkarten die einfach nie dieser Problematik unterlagen (CE). Leider habe ich aber genau so oft wie diese Thematik diskutiert wurde auch ein gewisses Grundverständnis über die Art und Weise wie Signalqualität erreicht wird vermisst. Alle Hinweise zum Thema die ich im Netz gefunden habe waren leider entweder so technisch das die nicht jeder verstehen kann oder aber schlichtweg falsch. Das war der Grund das ich mich dazu durchgerungen haben einen eigenen Artikel darüber zu verfassen, unter der Betrachtung der leichten Verständlichkeit und nicht unter den Gesichtspunkt der absoluten Erklärung.

Was ich erreichen und erneut betonen möchte ist das jeder diesen Artikel verstehen kann.

...

Fluch oder Segen, die CE-Norm macht das Ausgangssignal von Grafikkarten unbrauchbar.

Alle Komponenten werden im PC recht effektiv durch das Gehäuse gegen Störstrahlungen geschirmt anders sieht dies bei der Grafikkarte aus. Gute Grafikkarten haben einen RAMDAC um die 300 Mhz oder sogar mehr, diese hohen Frequenzen liegen direkt an der Ausgangsbuche an und müssen um der CE-Norm zu entsprechen gefiltert werden. Dies wird durch RCL-Filter (Widerstände, Kondensatoren, Spulen) erreicht, leider schwächen sie aber auch das Nutzsignal ab.

Die Signalamplitude, das ist die Höhe der maximalen Ausgangsspannung der Grafikkarte, sollte im besten Fall bei 0.7V liegen. Hierbei bedeutet eine Amplitude von 0V=Dunkel und 0.7V=maximale Helligkeit.

Die Filter sind frequenzabhängig, d.h. je kleiner die Auflösung eingestellt ist (kleine Ausgangsfrequenz), desto höher ist das Ausgangssignal dieses darf aber 700mV nicht übersteigen da ansonsten die Bilddarstellung auf den Monitor durch die Übersteuerrung massiv leidet. Bei hohen Auflösungen werden durch die Filter die Nutzspannung abgeschwächt und der Pegel des Ausgangssignals sinkt. Liegt dieser unterhalb von 0.5V muss die Helligkeit am Monitor nachgeregelt werden, dies bedeutet eine höhere Belastung des Monitors und der Dynamikumfang des Bildsignales sinkt.

Eigentlich ist es nur möglich den Ausgangsfilter für eine Frequenz optimal zu berechnen, hier sind aber die Grafikkartenkonstrukteure teilweise überfordert. Die Problematik ist hier das der PC ja in extrem geringen Auflösungen und Bildwiederholfrequenz startet und erst mit der Initialisierung der Bildschirmtreiber in Windows der Monitor auf echte Auflösungen und Frequenzen gesetzt wird.

In der "DOS-Auflösung" liegen fast alle Karten oberhalb von 800 mV, dies zeigt sich durch ein helles Bild und das teilweise "leuchten" einiger Buchstaben. Optimiert wird für die Auflösungen 1024x768 und 1280x1024, hier liegt i.d.R. alles im optimalen Bereich von 700mV. Bei vielen Karten sinkt aber bei den erhöhen der Auflösung der Pegel massiv und somit die Darstellungsqualität.

Eine sehr gute Grafikkarte wie die Matrox G450 liegt im Rahmen von 700-780mV und liefert somit immer ein nahezu optimales Bild. ...

Darauf eingehend sei gesagt, das wenn jemand zwischen seinem PC und dem Mac Mini keinen Unterschied in der Darstellungsqualität sieht darin begründet ist, das seine Karte im PC selbst keine gute Qualität lieferte. Es gibt da immer noch massive Qualitätsunterschiede.

Jeder Monitor reagiert ebenfalls anders auf das angelieferte Signal, es ist durchaus vorstellbar, das einige Displays gar nicht mit diesem arbeiten und schlicht weg gar kein Bild darsellen. Das Problem ist bei CRTs eher nicht zu erwarten, dafür sinkt eben die Grundhelligkeit, die ansonsten eher maue Qualität werden viele aus Erfahrung gar nicht bemerken.

Darstellungsqualität ist ansonsten sehr subjektiv, ähnlich wie man das Aussehen einer Frau beurteilen mag. Was der Eine als akzeptabel und der Andere als schön ansieht, mag ein Dritter als völlig indiskutabel ansehen. Weswegen es sehr müßig ist, darüber zu diskutieren ob das Ausgangssignal des Minis gut ist oder nicht, gemessen bei typischen Auflösungen ist es das eben nicht. Das kann Apple mit einer neuen Serie (bedingt) ändern, aber eine exzellente Qualität wird wohl niemals gegeben sein.

Richtigerweise ist also der Vorschlag den Mini nur digital anzuschliessen der beste den man machen kann und wer einmal den Unterschied zwischen analog und digital angesteuerten Displays gesehen hat, der wird eh nicht mehr analog wollen. Die analoge Ansteuerung ist für TFTs so oder so nicht nur Humbug, sondern eigentlich unverständlich. Unter normalen Umständen wäre ein rein digitales Display günstiger in der Herstellung als ein analoges, was dem ganzen irgendwie ein relativ ironischen Touch gibt.
 
klasse artikel - hast du einen link dazu - ich würde den gerne ganz lesen.

Alle Komponenten werden im PC recht effektiv durch das Gehäuse gegen Störstrahlungen geschirmt anders sieht dies bei der Grafikkarte aus. Gute Grafikkarten haben einen RAMDAC um die 300 Mhz oder sogar mehr, diese hohen Frequenzen liegen direkt an der Ausgangsbuche an und müssen um der CE-Norm zu entsprechen gefiltert werden. Dies wird durch RCL-Filter (Widerstände, Kondensatoren, Spulen) erreicht, leider schwächen sie aber auch das Nutzsignal ab.
da gabs mal in irgend einer zeitschrift ne anleitung um diesen filter wieder zu deaktivieren, bzw. die entsprechenden bauteile zu entfernen... kann man sowas bei aktuellen karten auch machenn - ist das sinnvoll wenn man auf ein scharfes bild angewiesen ist???
 
Viel mehr steht da nicht mehr drin, hatte nur ein paar unwichtige Stellen gekürzt.

Was die Bauteile angeht, sicherlich, man könnte hier den Lötkolben ansetzen, jedoch verliert dadurch das Gerät die CE Konformität und im Falle eines Falles könnte es glatt passieren, das der freundliche Nachbar irgendwelche Probleme hat und sich irgendwo beschwert.

Weswegen es sinnig wäre, das der Hersteller hier nachbessert. Bloß wird er das sicherlich nicht so einfach tun, wenn die Anzahl der Beschwerden relativ gering sind. Aus jahrelanger Erfahrung weiß ich nur zu gut, was für ein schlechtes Bild sich so mancher antut und es nicht mal merkt wie mies es ist.
 
Zurück
Oben Unten