Umstieg: Käsereibe (MP 1,1 v. 2006) --> Mülleimer (NMP v. 2013)

Ich muss ehrlich sagen, dass LR 3 bei mir etwas flüssiger lief als LR 5 (i7, SSD, …). Ich bin mal gespannt, wie es um LR 6 steht, da es dort möglich sein soll, die Grafikkarte in den Entwicklungsmodus miteinzubeziehen. Gut, die Grafikkarten in den MBPs sind nicht der Hit, aber gespannt bin ich trotzdem.

OT / Off Topic
Zum Thema LR 6 / CC und der Nutzung der GPU zur Beschleunigung der Rechenleistung gibt es ja bereits einige Threads/Posts im Forum.
Was das "Entwickler-Modul" in Verbindung mit Retina/HiDPI anbelangt hat die neue Version für mich eine erhebliche Verbesserung gebracht - endlich kann ich in hohen Auflösungen die Veränderung von Einstellungen "in Echtzeit" und ohne "Gedenksekunde" verfolgen...
 
OT / Off Topic
Zum Thema LR 6 / CC und der Nutzung der GPU zur Beschleunigung der Rechenleistung gibt es ja bereits einige Threads/Posts im Forum.
Was das "Entwickler-Modul" in Verbindung mit Retina/HiDPI anbelangt hat die neue Version für mich eine erhebliche Verbesserung gebracht - endlich kann ich in hohen Auflösungen die Veränderung von Einstellungen "in Echtzeit" und ohne "Gedenksekunde" verfolgen...

Off Topic

Das hört sich auf jeden Fall sehr gut an; auf welchen Mac bezieht sich diese Aussage? Ich überlege derzeit immer noch, ob ich auf LR 6 upgraden soll.
 
Off Topic

Das hört sich auf jeden Fall sehr gut an; auf welchen Mac bezieht sich diese Aussage? Ich überlege derzeit immer noch, ob ich auf LR 6 upgraden soll.

OT / Off Topic

Mit den hier bereits genannten Macs also dem "Mülleimer" und dem cMP 5,1 an 31" / 4K bzw. eben dem 31,5" / UHD mit HiDPI.
Auf dem MBPr habe ich diesbezüglich noch keine Erfahrungen sammeln können da ich größere Projekte gerne an den externen Displays bearbeite.

P.S.: was macht Dein "Hackintosh-Test-Projekt" ;O)..?
 
Off Topic

Mit den hier bereits genannten Macs also dem "Mülleimer" und dem cMP 5,1 an 31" / 4K bzw. eben dem 31,5" / UHD mit HiDPI.
Auf dem MBPr habe ich diesbezüglich noch keine Erfahrungen sammeln können da ich größere Projekte gerne an den externen Displays bearbeite.
Ah okay, na dann werde ich wohl doch noch etwas warten, bis es Berichte zu LR 6 auf dem MBPr gibt.

P.S.: was macht Dein "Hackintosh-Test-Projekt" ;O)..?
Das habe ich erstmal pausiert; den Tower mit dem Xeon E5-1650v3 und der GTX 780 Ti habe ich ja abgegeben und arbeite nun mit einem Xeon E3-1231v3 und einer GTX 970. Momentan habe ich doch etwas viel zu tun, aber da ich den neuen Tower nun auf Dauer habe, eilt das Projekt nicht (mehr). ;-) …auch wenn es mich sehr interessiert hätte, wie es auf dem ehemaligen Tower gelaufen hätte, aber da hat einfach die Zeit gefehlt.
 
Ich muss ehrlich sagen, dass LR 3 bei mir etwas flüssiger lief als LR 5 (i7, SSD, …). Ich bin mal gespannt, wie es um LR 6 steht, da es dort möglich sein soll, die Grafikkarte in den Entwicklungsmodus miteinzubeziehen. Gut, die Grafikkarten in den MBPs sind nicht der Hit, aber gespannt bin ich trotzdem.

Ich glaube ich habe letzten gelesen das LR6 wieder erheblich langsamer sein soll, obwohl Adobe behauptet hat, dass es schneller ist. Ich kann mich jedenfalls noch an die vielen giftigen Kommentare erinnern.

http://feedback.photoshop.com/photo...low-speed-tested-compared-to-5-7-gpu-not-used

Ah, gefunden^^
http://www.heise.de/foto/artikel/Na...-in-Lightroom-6-und-Lightroom-CC-2626770.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: XSkater
Ich glaube ich habe letzten gelesen das LR6 wieder erheblich langsamer sein soll, obwohl Adobe behauptet hat, dass es schneller ist. Ich kann mich jedenfalls noch an die vielen giftigen Kommentare erinnern.

http://feedback.photoshop.com/photo...low-speed-tested-compared-to-5-7-gpu-not-used


Ich kann lediglich für MEINE Macs sprechen und dort sind die Einstellungen im Entwicklermodul - mit der Grafikbeschleunigung - in HiDPI erheblich schneller geworden.
Wer ein CC Abo hat kann dies ja aber recht einfach ausprobieren - denn ich habe hier noch immer LR 4 / 5 und jetzt eben auch 6 / CC installiert.
 
Ich kann lediglich für MEINE Macs sprechen und dort sind die Einstellungen im Entwicklermodul - mit der Grafikbeschleunigung - in HiDPI erheblich schneller geworden.
Wer ein CC Abo hat kann dies ja aber recht einfach ausprobieren - denn ich habe hier noch immer LR 4 / 5 und jetzt eben auch 6 / CC installiert.

Lies mal im Heise Forum die Beiträge zu dem Artikel,Import und Konvertierung sind als ausgleich langsamer geworden^^
 
Lies mal im Heise Forum die Beiträge zu dem Artikel,Import und Konvertierung sind als ausgleich langsamer geworden^^
Wie schnell läuft denn deine SM951 in deinem MP ? Die ist ja wohl das schnellste was man aktuell so für den Consumer Markt bekommt, aber wie ist sie im Campo angeschlossen ?
 
Lies mal im Heise Forum die Beiträge zu dem Artikel,Import und Konvertierung sind als ausgleich langsamer geworden^^

OT / Off Topic
Das wußte ich und hatte diesbezüglich auch bereits im passenden Thread geschrieben, dass sich Heise leider mal wieder reisserisch auf einen speziellen Punkt gestürzt hat (ähnlich wie bei den 10-Bit und dem Kommentar "Goldene Smartwatches statt ordentlicher Workstations") statt die Performance aller Komponenten zu testen.

Richtig ist dass ich es gut finde wenn Adobe auf die Finger geschaut wird, Heise macht sich aber durch deren Art der Berichterstattung/der Artikel aber nicht glaubwürdiger oder seriöser - "Klicks" bekommen sie natürlich durch solche Beiträge und Überschriften auf alle Fälle...
 
Wie schnell läuft denn deine SM951 in deinem MP ? Die ist ja wohl das schnellste was man aktuell so für den Consumer Markt bekommt, aber wie ist sie im Campo angeschlossen ?

Noch gar nicht, ich habe nur schon meine Signatur aktualisiert, aber die SM951 kommt wohl erst heute^^

Ich liebe das Heise Forum, nirgends kann man sich über selbsternannte Pros so kaputtlachen wie da.
 
Ich stimme zwar allen zu, die einen PC empfehlen. Jedoch kann ich das Haltbarkeitsargument für den cMP nachvollziehen
Nein, der Ansatz stimmt nicht. Ohne Zweifel ist ein (c)MP eine haltbare Geschichte, das will hier niemand wegreden. Aber ein nicht-MP, also ein regulärer Rechner, ist auch nicht minder haltbar. Diese Implikation ist es, die nicht stimmt. Der cMP ist sicher haltbar, aber andere Rechner halt auch.
Selbst wenn wir davon ausgehen würden, dass der selbst gebastelte Rechner doppelt so schnell ins Gras beißt (und das tut er nicht, HW-Schäden können natürlich immer vorkommen, auch im cMP, das ist Lotto), könnte er sich für das Geld halt auch locker 2 "normale" Rechner kaufen und hat über die Zeit hinweg damit auch noch mehr Leistung.
 
  • Gefällt mir
Reaktionen: XSkater
Hinzu kommt, wenn man sich schon gleich am Anfang die kleinste Konfiguration holt, ist halt auch entsprechend schnell Schluss, besonders bei einem Rechner der nicht ohne viel aufwand erweiterbar ist.

Beispiel: Ich kaufe mir den kleinsten iMac mit 1,4 GHz oder was es da gerade als Einsteigerkiste gibt. Der Rechner ist jetzt schon untermotorisiert, und das wird er in 5 Jahren erst recht sein. Kaufe ich mir aber jetzt einen 4 Ghz iMac, dann bin ich in der Regel auch in 5 Jahren noch gut aufgestellt (es sei den es gibt einen technischen Durchbruch).

Beim alten MacPro konnte man CPU und GPU tauschen, also einen "Kleinen" kaufen und später aufstocken. 2x Quad 2,4 Ghz raus, 2x Hex 3,46 rein, GT120 raus, Titan X rein.

Beim einen nMP kann man zwar die CPU tauschen, aber wegen des 450 Watt Netzteils sind einem da auch schon einschränkungen auferlegt. Dann noch eine proprietäre GPU- und SSD-Lösung und der Drops ist gelutscht. Man kann zwar eGPUs anschließen und nutzen, aber als kompletter Ersatz ist das nicht die Lösung.
 
Aber ein nicht-MP, also ein regulärer Rechner, ist auch nicht minder haltbar. Der cMP ist sicher haltbar, aber andere Rechner halt auch.
Richtig, sofern er ähnlich wertig gebaut ist. Ich hatte auch schon parallel zum MP eine Dell-Workstation die hervorragend war und blieb. Vom Budget-Dell bis Aldi-PC ist aber alles was billig gebaut war nach 5 Jahren spätestens auf den Müll gewandert @ my friends&family. Und bis es so weit war, haben sie auch schon die meiste Zeit keinen Spaß gemacht.
 
Beim alten MacPro konnte man CPU und GPU tauschen, also einen "Kleinen" kaufen und später aufstocken. 2x Quad 2,4 Ghz raus, 2x Hex 3,46 rein, GT120 raus, Titan X rein.

Hi Tzunami,
Du weißt weshalb mir diese ganze “cMP <-->nMP” Diskussion “am Popo vorbeigeht” da Du meine verwendeten Macs kennst ;O)

Da meine Anforderungen für den Arbeitsalltag - anders als bei Sedor - aktuell weniger auf möglichst viele “CUDA Cores / Performance” ausgelegt ist (kann sich aber auch wieder ändern ;O)!) hier meine Frage an Dich Profi was NVIDIA GPUs und cMP anbelangt:

Bekomme ich mit einer NVIDIA GPU


  • Titan X (z.B. von GigaByte mit 3 x DP + 1 x HDMI 2.0)
  • GTX 980 (ebenfalls 3 x DP + 1 x HDMI 2.0)
  • GTX 970 (dieselben relevanten Anschlüsse)

in einem cMP 5,1 3 x 4K @ 60 Hz und dies unter OSX (welche Version ist mir egal)..?

Durch die Möglichkeit unter OS X die NVIDIA / CUDA Treiber zu verwenden wäre ich ja nicht so eingeschränkt wie mit AMD Karten deren Catalyst Treiber ich unter OS X leider nicht nutzen kann.

Was sagen denn die User auf Macrumors, kriegen die mit nur einer NVIDIA Grafikkarte 3 x 4K Displays angesteuert?

Regards
 
Zuletzt bearbeitet:
Hi Tzunami,
Du weißt weshalb mir diese ganze “cMP <-->nMP” Diskussion “am Popo vorbeigeht” da Du meine verwendeten Macs kennst ;O)

Da meine Anforderungen für den Arbeitsalltag - anders als bei Sedor - aktuell weniger auf möglichst viele “CUDA Cores / Performance” ausgelegt ist (kann sich aber auch wieder ändern ;O)!) hier meine Frage an Dich Profi was NVIDIA GPUs und cMP anbelangt:

Bekomme ich mit einer NVIDIA GPU


  • Titan X (z.B. von GigaByte mit 3 x DP + 1 x HDMI 2.0)
  • GTX 980 (ebenfalls 3 x DP + 1 x HDMI 2.0)
  • GTX 970 (dieselben relevanten Anschlüsse)

in einem cMP 5,1 3 x 4K @ 60 Hz und dies unter OSX (welche Version ist mir egal)..?

Durch die Möglichkeit unter OS X die NVIDIA / CUDA Treiber zu verwenden wäre ich ja nicht so eingeschränkt wie mit AMD Karten deren Catalyst Treiber ich unter OS X leider nicht nutzen kann.

Was sagen denn die User auf Macrumors, kriegen die mit nur einer NVIDIA Grafikkarte 3 x 4K Displays angesteuert?

Regards

Ohhhhh, da hast du ja ne böse Frage gestellt^^

Erst mal kommt es scheinbar stark auf den Monitor an (z.B. MST, SST)

MacVidCards schreibt dazu:
4K 60Hz support from DisplayPort with SST 4K Monitors
5K 60Hz support using two DisplayPorts (tested on the Dell 5K UP2715K)

Die Karte hat auch 3x Displayport, aber bei MacRumors habe ich bisher noch keinen Beitrag gelesen wo es um 3x4k geht, da bin ich also überfragt. Da hilft wohl echt nur testen.
 
Die GTX 970 nur wenn dir 3,5GB VRAM genügen. :crack:
 
Zurück
Oben Unten