Thunderbolt Display - Bestände schrumpfen, kommt ein neues?

die GPU brauchst du doch nur bei technisch nicht leistungsfähigen rechnen.
bei einem mac pro mit dicker Grafik brauchst die nicht.
 
Nein, es war eine ernstgemeinte Frage, so wie sie da halt auch steht. :noplan:

Die anfänglichen Performanceprobleme von 4 Jahren beim Scrollen sind bspw. längst Geschichte und seit Metal für die UI verwendet wird, ist das Thema vom Tisch, egal wie da gerendert wird.

Seit welcher OS X Version sind denn die Performanceprobleme bei Macs mit "Retina" bzw. "HiDPI"-Auflösungen vom Tisch sprich was muß ich nutzen damit hier mein UI nicht ständig lagged?
Klappt das auch schon mit Yosemite oder muß ich El Capitan nehmen..?

HiDPI-Skalierung von Apple bei "non-@2x"-Auflösungen
Deswegen wird die ja da auch nicht benutzt.

Eventuell verstehe ich diese Terminologie auch einfach nicht - aber die HiDPI / skalierte Auflösung von 3200x1800, welche beim 5K iMac angeboten wird fällt doch auch unter "non-@2x"-Auflösungen, oder verstehe ich da was falsch..?

die GPU brauchst du doch nur bei technisch nicht leistungsfähigen rechnen.
bei einem mac pro mit dicker Grafik brauchst die nicht.
Welche aktuellen Mac Pro haben denn eine "dicke Grafik" verbaut ;O)..?
(klar, UHD/4K @ 60 Hz können die alle darstellen - das können aktuelle Onboard GPUs aber auch - doch für 5K bedarf es natürlich auch noch immer 2 x DP 1.2 und so wirklich "leistungsstark" sind weder D300/D500/D700. Und das UI lagged egal was für eine GPU ich nutze lol...)
 
Zuletzt bearbeitet:
oder muß ich El Capitan nehmen

Ja.

aber die HiDPI / skalierte Auflösung von 3200x1800, welche beim 5K iMac angeboten wird fällt doch auch unter "non-@2x"-Auflösungen, oder verstehe ich da was falsch..?

Also die skalierten Retinaausflösungen sind alle "@2x"-Auflösungen, weil die Oberfläche da eben so gerendert wird.

Wenn ich bei meinem MacBook die nativen 2560*wasauchimmer einstelle, wird die Oberfläche 1x gerendert.
 

Na ich bin sehr gespannt - und hatte mit El Capitan leider bisher noch keine wirklichen Verbesserungen was die Lags betrifft...


Also die skalierten Retinaausflösungen sind alle "@2x"-Auflösungen, weil die Oberfläche da eben so gerendert wird.

Wenn ich bei meinem MacBook die nativen 2560*wasauchimmer einstelle, wird die Oberfläche 1x gerendert.

Das ist schon klar - aber was ist denn wenn ich "skalierte Auflösungen / mehr Fläche" wähle weil ich eben nicht nur eine "schärfere Darstellung" sondern auch eine größere Arbeitsfläche (Pixel in X und Y) haben will um z.B. mehr Fenster, Dokumente, Menüs etc. anzeigen zu können?
Wenn ich also 3200x1800 oder andere Auflösungen nutzen will die ich z.B. mit Apps wie SwitchResX und Display Menu einstellen kann?
Denn "Retina" bzw. HiDPI 2560x1440 (z.B. bei einem 5K iMac mit nativen 5120x2880) sind ja ganz nett - bringen mich aber nicht wirklich weiter wenn ich eine größere Arbeitsfläche haben will...

Und hast Du auf Deinem Mac auch schon mal 11 Virtuelle Screens oder mehr, viele Fenster und jede Menge Apps offen gehabt und wie schnell war dann Deine "Mission Control" oder andere Finder Animationen etc. ..?
 
Ich steig bei diesem @2 und hidpi Auflösungen etc. nicht durch was ihr da diskutiert......
Kann mir das einer von Euch mal für Dumme wie mich ganz langsam erklären?
:) Danke!
 
Und hast Du auf Deinem Mac auch schon mal 11 Virtuelle Screens oder mehr, viele Fenster und jede Menge Apps offen gehabt und wie schnell war dann Deine "Mission Control" oder andere Finder Animationen etc. ..?


Also hier bleibt das flüssig, selbst mit zusätzlich nem 1080p Bildschirm dran, da kann ich aufmachen so viel wie ich will.
 
Ich steig bei diesem @2 und hidpi Auflösungen etc. nicht durch was ihr da diskutiert......


Angenommen du hast nen 1080p Bildshirm, also 1920x1080 Pixel Auflösung, wie deinen Fernseher.

In Apples Terminologie ist das ein @1x Bildschirm, weil 1 Punkt auf dem Bildschirm einem Pixel in der Grafikkarte entspricht.

Bei Retinadisplays ist das aber anders, also die Retinaversion eines 1080 Displays hätte eine Auflösung von 3840x2160 Pixeln. Damit dabei aber alles gleich groß und damit benutzbar bleibt, wird die Oberfläche vom System doppelt so groß gerendert, also @2x.

Dort entspricht also ein Punkt auf dem Bildschirm in Wirklichkeit 4 Pixeln in der Grafikkarte. 4 weil die Pixelanzahl sich in beide Richtungen verdoppelt, insgesamt also 4mal so viele Pixel da sind.
 
  • Gefällt mir
Reaktionen: thogra
Also hier bleibt das flüssig, selbst mit zusätzlich nem 1080p Bildschirm dran, da kann ich aufmachen so viel wie ich will.

Das ist schön zu hören (und glaube es dennoch erst wenn ich es auf meinem System getestet habe...).

Denn bei einem nMP ist das NICHT so - selbst wenn da eine 980 Ti die Darstellung der HiDPI Screens übernimmt.
Aktuell bin ich am Arbeiten und habe lediglich einen 4K/4096x2160 mit HiDPI 2560x1350 sowie einen kleinen WQHD/2560x1440 angeschlossen - der UHD/3840x2160 hängt gerade am PC - doch für das Öffnen der "Mission Control" genehmigt sich der Mac momentan locker 2 Sekunden...

Egal mit welcher GPU...

nMP-4K-HiDPI.jpg
 
Zuletzt bearbeitet:
Ich steig bei diesem @2 und hidpi Auflösungen etc. nicht durch was ihr da diskutiert......
Kann mir das einer von Euch mal für Dumme wie mich ganz langsam erklären?
:) Danke!

Bei HiDPI Auflösungen wird ein Bild mit der vierfachen Auflösung berechnet - also jeweils 2 Mal so groß in X und Y.
Die "Retina Auflösung" eines 5K iMacs beträgt demnach HiDPI 2560x1440, jedes Pixel der nativen Auflösung des Monitors von 5120x2880 wird in X und Y jeweils verdoppelt was auf einem 27" Display zu einer sehr scharfen Darstellung führt ( http://www.eizo.com/library/basics/pixel_density_4k/ ).
Leider bedeutet dies auch, dass die ARBEITSFLÄCHE nicht größer wird d.h. ich bekomme nicht mehr Fenster, Menüs, Icons Daten etc. gleichzeitig dargestellt.

Will man (wie ich) eine größere Arbeitsfläche muß auch ein größeres Bild berechnet werden - bei HiDPI 3200x1800 (die z.B. bei einem 5K iMac in den Systemeinstellungen angeboten wird) muß also ein Bild von 6400x3600 berechnet werden welches dann wieder auf die nativen 5120x2880 des 5K Displays herunter skaliert wird.

Hier mal zwei Beispiele meiner "HiDPI-Displays".
Z.B. vom 15" MBPr:

Retina-HiDPI-Auflösungen.jpg

Und hier ein Vergleich eines konventionellen WQHD/2560x1440 Displays (27" Apple Cinema Displays / Thunderbolt Display / 27" NON-Retina-iMacs) mit einem 4K/4096x2160 Display:

QHD vs 4K HiDPI.jpg

Windows nutzt "Vector Scaling".
Hier werden die Icons und die Fonts (größer)skaliert um diese auf einem hochauflösenden Display erkennbar/lesbar zu machen, es wird also nicht der komplette Screen skaliert wie in OS X.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JeanLuc7 und spaceman88
Mal sehen wo die Gebrauchtpreise hingehen, wenn das Thunderbolt Display abgekauft ist, und kein neues erscheint.
 
Mal sehen wo die Gebrauchtpreise hingehen, wenn das Thunderbolt Display abgekauft ist, und kein neues erscheint.

In welchem Bereich pendeln die denn aktuell? Ich hab das leider schon eine Weile nicht mehr beobachtet da ich auf ein neues gehofft hatte.
 
In welchem Bereich pendeln die denn aktuell? Ich hab das leider schon eine Weile nicht mehr beobachtet da ich auf ein neues gehofft hatte.

500€ bis 600€

Zumindest habe ich für meines vor ein paar Wochen 500€ bezahlt. 2 Jahre alt mit OVP.
 
Danke dir. Vielleicht schau ich doch nochmal ob ich mir eines anschaffe.
 
Naja, es "muss" 5K sein, weil Apple es nicht schafft eine vernünftige Skalierung der GUI zu implementieren. Rein von der Pixeldichte her wäre UHD auf 27" mehr als ausreichend und mit Hinblick auf die verbauten Spielzeug-Grafikkarten auch deutlich sinnvoller.

Davon abgesehen finde ich nicht, dass Apple unbedingt einen eigenen Monitor braucht, besondere Highlights waren das in der Vergangenheit ja nie.

Meiner Meinung nach braucht Apple durchaus einen Monitor im Sortiment. Als das Thunderbolt Display auf den Markt kam, war es durchaus konkurenzfähig, wenn auch schon damals - wie gewohnt - überteuert. Das Thunderbolt Display bot eine für jeden User sehr einfach nutzbare Möglichkeit, ein MacBook oder einen Mac Pro so anzuschließen, das Mikrofon, Lausprecher und Kamera automatisch und ohne weiteres Zutun funktionierten. Es gab immer gute Alternativen, aber für den "Standard-User", der Apple meist nutzt(e), weil alles aus der Box heraus funktioniert(e), passte das Thunderbolt Display zu dem einstmals guten Gefühl, sich auch ohne große Kenntnisse auf sein System verlassen zu können, wenn man einfach alle Komponenten von Apple kaufte. Andere Monitore mit vergleichbaren Funktionen muckten dann auch mal an der ein oder anderen Stelle. Viele funktionieren zwar auch gut, aber der Benutzer wird sich trotzdem selbst überlassen, was eindeutig gegen Apples einstige Philosophie geht...

Des weiteren: Wenn ich einen Rechner wie den Mac Pro anbiete, muss ich auch einen passenden Monitor im Sortiment haben...

Aber das Argument könnte bald auch nicht mehr gültig sein, wenn Apple als nächstes Modell wahrscheinlich auch den Mac Pro sang und klanglos sterben lässt, der ja auch so gar keinen Markt mehr hat, weil ja bekanntermaßen alle Foto - und Videoproduktionen zukünftig weltweit auf dem iPad Pro gemacht werden. Das ZDF verkauft bereits alle Studios, da man ja bald nur noch 3 Leute im Zweireiher, ein weißes Hochglanzbüro mit Fotos von Nelson Mandela und 4 rosegoldene iPads braucht. Hollywood reagiert ebenfalls - selbst Spielberg wurde letztens beim Versuch, den 9ten Teil des weißen Hais bei Starbucks via iCloud zu schneiden, auf frischer Tat ertappt...
Sakraksmus aus...
Ich hoffe natürlich, das ich mich hinsichtlich des MacPro irre und Apple hier doch noch einmal einen rundum guten und performanten Nachfolger entwickelt. Da aber dieses Segment noch deutlich mehr Möglichkeiten bietet, planvoll Scheiße zu bauen, ist diese Hoffnung nicht gerade sehr groß.
 
Also, bin ich echt der einzige der findet das ist ne total bescheuerte Idee ist? Die Displays halten bei mir eigentlich am längsten und überdauern mehrere Computergenerationen, und dann soll in jedes Display eine eigene GPU? Und wenn die nicht nur billig 2D zeigen soll, kommt da dann auch ne dickere diskrete von AMD/nVidia rein samt Netzteil und Lüfter? Und die Dinger sollen dann pro Stück wie teuer sein und wann überholt?
Und GPU-Beschleinigung bei Anwendungen, soll wie gehen? Alle Macs kommen dann nur noch mit ARMs und SoC, weil Grafik ja nicht mehr gebraucht wird?

Und so wie ich das kenne, gibts da natürlich keinen Standard, sondern Apple fängt mal an. Und dann springt irgendwann wer anders noch auf den Zug, mit natürlich anderen Kabeln und Protokollen, ..

Ich glaub die Geschichte erst, wenn ich sie sehe. Das ist selbst für Apple ein komisches Konzept, aber die wären mit Abstand der Laden dem ich das am ehesten zutrauen würde..

Du hast es erfasst;-) Sollte es so kommen, hat Apple endlich auch eine Möglichkeit gefunden, den Benutzer auch bei den Monitoren alle 2-3 Jahre neu abzuzocken, was bisher nur bedingt möglich war, da es doch tatsächlich unverbesserliche Leute gibt, denen UHD reicht... So aber baue ich weiter lautlose Spielzeuggrafikkarten in die Macs ein und biete voll verklebte Monitore mit eigener Grafikkarte an. Das ist in der Tat mal eine Innovation. Leider nicht die Innovation eines Technikers, sondern die eines Wucherers...
 
Meiner Meinung nach braucht Apple durchaus einen Monitor im Sortiment. Als das Thunderbolt Display auf den Markt kam, war es durchaus konkurenzfähig, wenn auch schon damals - wie gewohnt - überteuert. Das Thunderbolt Display bot eine für jeden User sehr einfach nutzbare Möglichkeit, ein MacBook oder einen Mac Pro so anzuschließen, das Mikrofon, Lausprecher und Kamera automatisch und ohne weiteres Zutun funktionierten. Es gab immer gute Alternativen, aber für den "Standard-User", der Apple meist nutzt(e), weil alles aus der Box heraus funktioniert(e), passte das Thunderbolt Display zu dem einstmals guten Gefühl, sich auch ohne große Kenntnisse auf sein System verlassen zu können, wenn man einfach alle Komponenten von Apple kaufte. Andere Monitore mit vergleichbaren Funktionen muckten dann auch mal an der ein oder anderen Stelle. Viele funktionieren zwar auch gut, aber der Benutzer wird sich trotzdem selbst überlassen, was eindeutig gegen Apples einstige Philosophie geht...

Des weiteren: Wenn ich einen Rechner wie den Mac Pro anbiete, muss ich auch einen passenden Monitor im Sortiment haben...

Aber das Argument könnte bald auch nicht mehr gültig sein, wenn Apple als nächstes Modell wahrscheinlich auch den Mac Pro sang und klanglos sterben lässt, der ja auch so gar keinen Markt mehr hat, weil ja bekanntermaßen alle Foto - und Videoproduktionen zukünftig weltweit auf dem iPad Pro gemacht werden. Das ZDF verkauft bereits alle Studios, da man ja bald nur noch 3 Leute im Zweireiher, ein weißes Hochglanzbüro mit Fotos von Nelson Mandela und 4 rosegoldene iPads braucht. Hollywood reagiert ebenfalls - selbst Spielberg wurde letztens beim Versuch, den 9ten Teil des weißen Hais bei Starbucks via iCloud zu schneiden, auf frischer Tat ertappt...
Sakraksmus aus...
Ich hoffe natürlich, das ich mich hinsichtlich des MacPro irre und Apple hier doch noch einmal einen rundum guten und performanten Nachfolger entwickelt. Da aber dieses Segment noch deutlich mehr Möglichkeiten bietet, planvoll Scheiße zu bauen, ist diese Hoffnung nicht gerade sehr groß.


Mal im Ernst, wenn du schon die Video- und Fotobranche ansprichst, ist denen ein Apple Display sowas von egal, da es spiegelt und nicht einmal kalibrierbar ist. Hollywood wird wohl kaum einen Mac Pro nutzen, dafür ist er zu schwach, die Berechnungen nehmen ohnehin Cluster und Serverfarmen vor. Wie will man denn vernünftig 2-8K Material von 30-240fps und 10bit Farbtiefe in RAW editieren, dafür sind die Grafikkarten zu schwach. Deren Hardware liegt finanziell weit über dem, was ein voll ausgestatter Mac Pro kostet (Blackmagic, Avid, Pro Tools). Was nicht heißt, dass keine Macs eingesetzt werden, aber in Hollywood werden durchaus stärkere Geräte benötigt. Für Maya werden zum Beispiel Quadro GPUs empfohlen, die bekommt man für den Mac gar nicht.
Also ich bezweifle, dass Profis in dem Segment auf ein Designer Display setzen, dass nicht einmal AdobeRGB beherrscht, wie es DCI und Rec. 709 aussieht, weiß ich gerade nicht. Im Broadcast-Bereich eignen sich normale Displays ohnehin nicht, alleine schon mangels Anschlüsse.
 
Mal im Ernst, wenn du schon die Video- und Fotobranche ansprichst, ist denen ein Apple Display sowas von egal, da es spiegelt und nicht einmal kalibrierbar ist. Hollywood wird wohl kaum einen Mac Pro nutzen, dafür ist er zu schwach, die Berechnungen nehmen ohnehin Cluster und Serverfarmen vor. Wie will man denn vernünftig 2-8K Material von 30-240fps und 10bit Farbtiefe in RAW editieren, dafür sind die Grafikkarten zu schwach. Deren Hardware liegt finanziell weit über dem, was ein voll ausgestatter Mac Pro kostet (Blackmagic, Avid, Pro Tools). Was nicht heißt, dass keine Macs eingesetzt werden, aber in Hollywood werden durchaus stärkere Geräte benötigt. Für Maya werden zum Beispiel Quadro GPUs empfohlen, die bekommt man für den Mac gar nicht.
Also ich bezweifle, dass Profis in dem Segment auf ein Designer Display setzen, dass nicht einmal AdobeRGB beherrscht, wie es DCI und Rec. 709 aussieht, weiß ich gerade nicht. Im Broadcast-Bereich eignen sich normale Displays ohnehin nicht, alleine schon mangels Anschlüsse.

Irgend etwas hast du überlesen.
War es das Wort "Sarkasmus"?

Hier die nicht sarkastische Version:
"Ich bin der Meinung, das ein Hersteller von Computern auch eigene Monitore anbieten sollte. Und mir ist bewusst, das man für Hollywood-Produktionen mehr braucht als eine Workstation - egal von wem sie gebaut wurde. Ich habe in meinem Beitrag das durchaus gängige Konzept der Überhöhung verwendet und war der fälschlichen Überzeugung, das dies offensichtlich war."

Und jetzt mal ganz ehrlich, ohne Scheiß und ohne dir zu nahe treten zu wollen:
Warum nutzt du überhaupt Apple-Produkte, wo du doch absolut alles komplett scheiße zu finden scheinst, was die so machen und herstellen? Bin etwas confused.
 
"Ich bin der Meinung, das ein Hersteller von Computern auch eigene Monitore anbieten sollte.

Und jetzt mal ganz ehrlich, ohne ****** und ohne dir zu nahe treten zu wollen:
Warum nutzt du überhaupt Apple-Produkte, wo du doch absolut alles komplett scheiße zu finden scheinst, was die so machen und herstellen? Bin etwas confused.

@hr47
Veritas nutzt den Mac ja täglich für die Arbeit und er hatte sich damals BEWUSST für diesen Rechner entschieden - ich bezeichne ihn als >Profi< da er genau weiß was er da tut ;O)
Genau wie ich weiß er halt um die Stärken aber auch Schwä.... äh Verbesserungsmöglichkeiten der Apple Hard- und Software.
Gerade im Bereich "Displays" benötige ich übrigens für meine Apps / Arbeit auch nicht zwingend ein "Apple Display", es gibt einige Anbieter die sich auf hochwertige, (hardware-)kalibrierbare Monitore spezialisiert haben.
Neben diesem Feature sind diese noch entspiegelt, können den kompletten Farbraum darstellen, haben einen Blendschutz, sind höhenverstellbar, besitzen mehrere Anschlüsse und vieles mehr.
Meine Arbeit wird nicht einfacher durch ein "Gehäuse aus Aluminium", ein Apple Logo oder der Farbe "Rosegold" - dennoch kann ich verstehen, wenn User Ihren stylischen Mac mit einem passenden Display versehen wolllen - aber das sind v e r m u t l i c h keine Fotografen/Grafiker wie Veritas und ich für die ein Mac in erster Linie ein Werkzeug ist.
 
Zuletzt bearbeitet:
Irgend etwas hast du überlesen.
War es das Wort "Sarkasmus"?

Hier die nicht sarkastische Version:
"Ich bin der Meinung, das ein Hersteller von Computern auch eigene Monitore anbieten sollte. Und mir ist bewusst, das man für Hollywood-Produktionen mehr braucht als eine Workstation - egal von wem sie gebaut wurde. Ich habe in meinem Beitrag das durchaus gängige Konzept der Überhöhung verwendet und war der fälschlichen Überzeugung, das dies offensichtlich war."

Und jetzt mal ganz ehrlich, ohne ****** und ohne dir zu nahe treten zu wollen:
Warum nutzt du überhaupt Apple-Produkte, wo du doch absolut alles komplett scheiße zu finden scheinst, was die so machen und herstellen? Bin etwas confused.

Ich bin der Meinung, dass der das herstellen soll, was er am besten kann. Aber alle Sparten zu bedienen, geht nie gut, zumal die Panels auch nur zugekauft werden. Apple geht ohnehin auf 4K und 5K, da ist das Thunderbolt Display mittlerweile zu schwach aufgelöst, wenn, dann will man doch zwei gleiche Monitore haben, bzw. mit identischer Pixeldichte. Zu dem Preis vom Thunderbolt Display gibt es Besseres: https://www.eizo.de/coloredge/cs270-bk/

Den Rest hat @MacMutsch schon geschrieben. In unserem Bereich ist so ein Display fehl am Platz, bei Medienproduktionen gibt es auch bessere Displays. Ich glaube kaum, dass man im professionellen Bereich das Display vermissen wird. Die alten ACD 30" und 23" waren noch andere Displays, ich habe selbst noch das 23er und für damalige Verhältnisse waren die durchaus top, heute würde ich mir keines mehr kaufen.

Warum ich Apple Produkte nutze? Warum nicht? Ich hatte privat Macs, während der Ausbildung fast nur Macs, im Lehrbetrieb Macs, OS X Server, in der Druckvorstufe Macs und jetzt auch nen Mac beruflich.

Sony hat damals das Rennen gegen MP3 verloren, Apple war mit über 70% am MP3 Player Markt vertreten, sonst hätte ich weiterhin die Mini Disc genutzt, aber Sony hat die Entwicklung und die Produktion eingestellt. Erst seit 2-3 Jahren gibt es wieder Konkurrenzprodukte, aber solange die iPods laufen, brauche ich keinen Ersatz. Gehen die mal kaputt, kommt einer von Sony, Pioneer, FiiO etc. her.

Als die AirPort Express durch das neue AirPort Dienstprogramm künstlich beschnitten wurde, habe ich nach und nach auf Cisco und Linksys umgestellt. HiFi-mäßig bin ich weg von Apple, da gibt es bessere Marken.

AirPlay... Aussetzer, benötigt einen iTunes Server usw., also bin ich umgestiegen, auf OpenSource, da reicht ein Raspberry und man kann zig Streams gleichzeitig in zig Formaten laufen lassen, ohne einen Mac dafür abzustellen.

iTunes ist auch immer schlechter geworden, man kann aktuell nicht mal mehr händisch Tags vergeben, die will iTunes einem vorgeben, tolle Wurst.

Achja, Aperture... zum Glück bin ich rechtzeitig abgesprungen, 2010 kam Aperture raus und 3.6 benötigt aber 10.10, das gab es 2010 schon gar nicht mehr und Aperture blieb über 5 Jahre auf demselben Stand. .mac/mobile raus, iCloud rein und paar Bugfixes drauf.

Aber mit Windows hätte ich auch wieder Probleme und ich hab keine Lust, hier Terrabyte für Terrabyte umzuformatieren, neue Shortcuts zu lernen, den Workflow umzustellen und auf AppleScript zu verzichten.

Dennoch gibt es aktuell keine interessanten Macs. Der mini kostet bis zu 2.560€ für 1TB, 16GB RAM und einem Dual Core!!! mit integrierter Grafik, der iMac spiegelt und der Mac Pro ist in Sachen Aufpreis teurer als die Einzelkomponenten im Laden, die Hardware ist über 3 Jahre alt, aber das juckt mich nicht, ich muss ihn nicht bezahlen, privat sieht das wieder anders aus. Bliebe nur ein MacBook Pro, aber ich benötige keinen mobilen Rechner.
 
  • Gefällt mir
Reaktionen: Scum
Ich bin der Meinung, dass der das herstellen soll, was er am besten kann. Aber alle Sparten zu bedienen, geht nie gut, zumal die Panels auch nur zugekauft werden. Apple geht ohnehin auf 4K und 5K, da ist das Thunderbolt Display mittlerweile zu schwach aufgelöst, wenn, dann will man doch zwei gleiche Monitore haben, bzw. mit identischer Pixeldichte. Zu dem Preis vom Thunderbolt Display gibt es Besseres: https://www.eizo.de/coloredge/cs270-bk/

Den Rest hat @MacMutsch schon geschrieben. In unserem Bereich ist so ein Display fehl am Platz, bei Medienproduktionen gibt es auch bessere Displays. Ich glaube kaum, dass man im professionellen Bereich das Display vermissen wird. Die alten ACD 30" und 23" waren noch andere Displays, ich habe selbst noch das 23er und für damalige Verhältnisse waren die durchaus top, heute würde ich mir keines mehr kaufen.

Warum ich Apple Produkte nutze? Warum nicht? Ich hatte privat Macs, während der Ausbildung fast nur Macs, im Lehrbetrieb Macs, OS X Server, in der Druckvorstufe Macs und jetzt auch nen Mac beruflich.

Sony hat damals das Rennen gegen MP3 verloren, Apple war mit über 70% am MP3 Player Markt vertreten, sonst hätte ich weiterhin die Mini Disc genutzt, aber Sony hat die Entwicklung und die Produktion eingestellt. Erst seit 2-3 Jahren gibt es wieder Konkurrenzprodukte, aber solange die iPods laufen, brauche ich keinen Ersatz. Gehen die mal kaputt, kommt einer von Sony, Pioneer, FiiO etc. her.

Als die AirPort Express durch das neue AirPort Dienstprogramm künstlich beschnitten wurde, habe ich nach und nach auf Cisco und Linksys umgestellt. HiFi-mäßig bin ich weg von Apple, da gibt es bessere Marken.

AirPlay... Aussetzer, benötigt einen iTunes Server usw., also bin ich umgestiegen, auf OpenSource, da reicht ein Raspberry und man kann zig Streams gleichzeitig in zig Formaten laufen lassen, ohne einen Mac dafür abzustellen.

iTunes ist auch immer schlechter geworden, man kann aktuell nicht mal mehr händisch Tags vergeben, die will iTunes einem vorgeben, tolle Wurst.

Achja, Aperture... zum Glück bin ich rechtzeitig abgesprungen, 2010 kam Aperture raus und 3.6 benötigt aber 10.10, das gab es 2010 schon gar nicht mehr und Aperture blieb über 5 Jahre auf demselben Stand. .mac/mobile raus, iCloud rein und paar Bugfixes drauf.

Aber mit Windows hätte ich auch wieder Probleme und ich hab keine Lust, hier Terrabyte für Terrabyte umzuformatieren, neue Shortcuts zu lernen, den Workflow umzustellen und auf AppleScript zu verzichten.

Dennoch gibt es aktuell keine interessanten Macs. Der mini kostet bis zu 2.560€ für 1TB, 16GB RAM und einem Dual Core!!! mit integrierter Grafik, der iMac spiegelt und der Mac Pro ist in Sachen Aufpreis teurer als die Einzelkomponenten im Laden, die Hardware ist über 3 Jahre alt, aber das juckt mich nicht, ich muss ihn nicht bezahlen, privat sieht das wieder anders aus. Bliebe nur ein MacBook Pro, aber ich benötige keinen mobilen Rechner.

Veritas und MacMutsch:
Schaut mal;-) Es war gar nicht nötig, mich über die Nachteile des Thunderbolt Displays / Cinema 27 Displays zu informieren. Auch ich arbeite täglich mit meinem Mac, wenn auch nicht im Grafikbereich. Das von mir genutzte Cinemadisplay (cMp) habe ich nicht in erster Linie wegen des Designs gekauft, sondern weil ich ein voll kompatibles Gerät haben wollte, das zu meinem Anwenderprofil (C, c#, .Net, Php mit Schwerpunkt Datenbanken) ganz gut passt und das keine Probleme unter OS X macht. Mittlerweile gibt es deutlich bessere Lösungen (auch für meine Zwecke, da ein Entwickler heutzutage auf ein modernes hochauflösendes GUI mit allen möglichen Farbspielereien achten muss, wenn er nicht verhungern will - das Auge isst halt mit).

Ich wollte festhalten, das es ein absolutes Armutszeugnis von Apple ist, überhaupt keine Dipsplays mehr anzubieten. Davon abgesehen hat man es seit Jahren versäumt, Displays zu entwickeln, die sowohl nett aussehen als eben auch für professionelle Grafik/Foto/Videoanwender eine echte Alternative sind. Das man jetzt hier auch auf Drittanbieter verweist und sich nur nur auf iPhone und iPad fokussiert, wird sich für Apple hoffentlich rächen.
By the way: Selbst am Beispiel der Technik des kleinen iPad pro kann man den Irrsinn nebst Dollarzeichen in den Augen Apples sehen. Wie sonst ist es zu erklären, das dieses Gerät 2016 tatsächlich mit USB2 Geschwindigkeit daherkommt - wohl, um sich hier vom großen Bruder abzusetzen, der "innovatives" USB3 anbietet...

Ich bin sehr gespannt, welche neue Hardware zu macos Sierra auf den Markt kommen und ob auch der Mac pro stillschweigend den Weg alles irdischen gehen wird.
 
Zurück
Oben Unten