Mac Studio oder Mac Mini

Spricht Lightroom Classic wirklich nur einen GPU Kern und nicht den ganze GPU an?
Natürlich nicht. LR, PS können nur mit 1 GPU umgehen.
Capture One kann glaube ich bis zu 4 GPU's ansprechen (2 auf jedem Fall, bei 4 bin ich nicht 100% sicher). Ich meine auch mal gelesen zu haben, dass DxO Photo Lab auch mehr als eine GPU ansprechen kann.

Die GPU Kerne werden bei Apple anderes als bei AMD/ nVidia gezählt. Wenn ich es richtig verstanden habe muss man die APPLE GPU Kerne x8 nehmen, dann kommt die Anzahl der s.g Shaders bei AMD/ nVidia raus.
 
Somit scheint man einzelne GPU Kerne gar nicht abbilden und vermutlich auch gar nicht einzeln angesprochen zu können?
Das läuft alles über APIs.
Eigentlich verkauft auch nur Apple mit Kernen, damit man auch schön Aufpreis bezahlt.
Die anderen Hersteller verkaufen verschiedene Grafik Chips, die haben mehrere tausend Kerne.
 
Falls das jemand hier mit der KI entrauscht, würde mich das Ergebnis vom Deckenbereich in 100% Crop als Ausschnitt interessieren.
Vielleicht übersehe ich da etwas - da steht aber OOC JPEG. LR kann nur mit RAW umgehen
 

Anhänge

  • SCR-20230702-swpt.jpeg
    SCR-20230702-swpt.jpeg
    140,9 KB · Aufrufe: 92
  • Gefällt mir
Reaktionen: Sonnenschein11 und Roland O.
Danke fürs Zeigen.
 
  • Gefällt mir
Reaktionen: Tommac187
Falls das jemand hier mit der KI entrauscht, würde mich das Ergebnis vom Deckenbereich als 100% Crop interessieren.
Mit einem Studio Max mit 64Gb RAM das RAW in LrC bei 50% entrauscht, dauert 15 sek.
In meinen Augen kann man LrC dafür noch nicht nutzen. Oder ich drehe die % hoch und alles wird vermatscht.
Bildschirmfoto 2023-07-02 um 22.01.06.jpeg
 
  • Gefällt mir
Reaktionen: Roland O.
  • Gefällt mir
Reaktionen: Schnatterente
Das Video wurde hier vor kurzem verlinkt - zeigt den Vergleich verschiedener Macs beim KI-Entrauschen- sowie im gesamten Video von verschiendenen anderen Nutzungen.
https://www.youtube.com/watch?v=rOPjabEyAq0&t=1022s
Danke sehr.
Er sagt also ab ungefähr 17:00 Minuten: "The more GPU you have, the faster it is is and the less GPU you have, the longer it takes."
Und wenn ich mir die Grafik dann so ansehe, dann nutzt Lightroom zum KI Entrauschen alle verfügbaren GPU Kerne und je mehr GPU Kerne, desto schneller wird es. Sehe ich das soweit richtig?
 
In meinen Augen kann man LrC dafür noch nicht nutzen. Oder ich drehe die % hoch und alles wird vermatscht.
Weil es damit kein KI Entrauschen geht - JPEG und kein RAW.
desto schneller wird es. Sehe ich das soweit richtig?
An sich ja - irgendwo gab es da meine ich eine Grenze wo der zeitliche Vorteil nicht mehr wirklich erkennbar ist. Bei welchen Wert es lag musste ich auch noch mal suchen.
 
Klar geht das mit RAW,
Das KI Entrauschen geht NUR mit RAW. Das weiß ich weil ich LR selbst nutze.
Hier ging es mir um das Bild und der CROP der Decke. Das Bild um das es geht - wenn ich mich nicht total verguckt habe, gibt es nur als JPEG was man runterladen kann. Damit ist kein KI Entrauschen möglich.
 
Du kannst die RAW doch laden.
 
dann nutzt Lightroom zum KI Entrauschen alle verfügbaren GPU Kerne und je mehr GPU Kerne, desto schneller wird es. Sehe ich das soweit richtig?
Theoretisch, so eine GPU ist halt eine Parallele Rechenmaschine. Allerdings kann man nicht jede Aufgabe in beliebige Unteraufgaben aufteilen, so dass die gleichzeitig abgearbeitet werden.
 
  • Gefällt mir
Reaktionen: dg2rbf
na dann stecke die eGPU mal ab, und messe nochmal, denn vermutlich hat die die Arbeit gemacht
und nicht der Mac Mini.

Was tut das zur Sache? Ich lese überall wie phänomenal schnell die M Macs sind, dass 8GB reichen und dann sind sie langsamer als eine 2017er Mittelklasse eGPU, die extern mit "miesen" Treiben angebunden ist.
 
Aktuell überlegen wir ebenfalls einen Mac Studio mit 32GB und 1TB zu kaufen. Wir würden Parallels drauf packen und Windows ARM laufen lassen .. Die Hauptsoftware wird eine Planungssoftware für Küchen die Grafiklastikg ist (der Hersteller empfiehlt eine Grafikkarte mit 4/8GB - mehr ist besser) .. würde die Grafikpower der M2 Prozessoren (GPU) hierfür langen? wieviel RAM hätten die eigentlich?
 
Was tut das zur Sache? Ich lese überall wie phänomenal schnell die M Macs sind, das 8GB reichen und dann sind sie langsamer als eine 2017er Mittelklasse eGPU, die extern mit "miesen" Treiben angebunden ist.
Na wegen dieser Behauptung
Oha, bei meinem 2018er mini sind es gerade mal 33sec.

Weil die Arbeit von der eGPU erledigt wurde.
Mich würde aber interessieren wie lange es mit dem 2018er Mini dauert, und nicht wie lange es mit einer
nicht näher bezeichneten eGPU dauert.
 
Zurück
Oben Unten