Vorstellung des neuen Mac Pro ... Diskussion

Es gibt übrigens immer noch Leute die weder HD-TV, noch 4k, noch 8k schauen....und das stört noch nicht mal
 
Naja, das ist ja jetzt auch schon so. 8K macht ja aus Gründen der Bildqualität nicht wirklich Sinn.
Bei halbwegs Wohnzimmer-kompatiblen Bildschirmgrößen tatsächlich nicht.

Bei Full HD zu 4k war das aber noch deutlich anders. Ich dachte da ja auch erst, mehr als 1080 braucht kein Mensch. Aber setz dich mal nach einem halben Jahr mit einem 55" 4k Fernseher vor einen gleich großen Full HD. Dann weißt du, was ich meine.
 
  • Gefällt mir
Reaktionen: Scum
Bei Full HD zu 4k war das aber noch deutlich anders. Ich dachte da ja auch erst, mehr als 1080 braucht kein Mensch. Aber setz dich mal nach einem halben Jahr mit einem 55" 4k Fernseher vor einen gleich großen Full HD. Dann weißt du, was ich meine.

Kommt doch auf die Sendungen an. Die Bildqualität ist oft so schlecht, da merke ich nicht mal, ob
es ein HD Programm ist. Und selbst HD Programme senden ja nicht in 4K, oder irre ich mich da?
 
Und dennoch ist Premiere das Videoschnitt Tool mit dem höchsten Marktanteil.

Wobei Hollywood fast ausschließlich den Avid Media Composer benutzt - den viele noch nicht mal vom Namen her kennen. Und eben Davinci fürs Grading, wobei das ja schon lange mehr als das kann.
https://blog.frame.io/2019/08/19/avid-in-hollywood/

Bei den Youtubern gibt es halt den Kampf zwischen Premiere, Final Cut und Davinci.
Das in 6k oder 8k gefilmt wird, hat auch meistens eher den Grund, hinterher für ein 4k Master genug Auflösung zu haben, um verlustfrei den Bildausschnitt neu zu wählen, reinzuzommen, Kamerschwenks und Zooms zu simulieren, Stabilisierung usw.
Wobei Hollywood hier stark hinterher hängt. Die meisten Filme werden nach wie vor nur in 2k geschnitten.
Serienanbieter wie Netflix haben hier strengere Anforderungen. Unter 4k mit bestimmten Kameras geht nix.
 
  • Gefällt mir
Reaktionen: picknicker1971, spatiumhominem und maba_de
Kommt doch auf die Sendungen an. Die Bildqualität ist oft so schlecht, da merke ich nicht mal, ob
es ein HD Programm ist. Und selbst HD Programme senden ja nicht in 4K, oder irre ich mich da?
Ja, dass inzwischen zumindest jeder Tech-YouTuber in besserer Qualität „ausstrahlt“ als unsere „Öffentlich Rechtlichen“ für ihre 17 Euro im Monat, steht nochmal auf einem anderen Blatt. Da ist 4k nämlich inzwischen absoluter Standard. Aber auch das „Fernseh HD“ sieht auf einem großen Fernseher auf 4k hochinterpoliert schon deutlich netter aus als mit 1920 x 1080 Pixeln. Auch wenn das natürlich keine „echte Qualität“ ist.
 
Kann man wirklich den Schluss so ziehen? Woher willst du wissen, was aktuell entwicklet wird als (bahnbrechend?) neue Technik in welchem Unternehmen, oder wann was "in"/notwendig wird?

Beispiel aus meiner Erfahrung: Wir haben einen 8000 Core "Supercomputer" gekauft mit 102 TB RAM (und 60 Geforce 1080) genau 4 Monate bevor Ryzen rauskam. Jetzt gibts das aktuelle (Intel) CPU-Äquivalent (also aktuelle Generation) für weniger als die Hälfte des Gelds.
In den 7 Jahren davor war so gut wie 0 Entwicklung auf dem Markt, und unser altes Cluster wurde nur zwangsweise gewechselt, weil out of support. Performance technisch war da nicht der große Unterschied.

Nur weil die Hardware neu kaufen müssen, heißt das ja nicht, fehlinvestiert oder falsch geplant.

Ganz und gar nicht, da stimme ich in allen Punkten zu! Das ABER bezieht sich auf den Umstand, dass man in einer so "schnellen Branche" wie dem Medien- / Filmmarkt immer mit einem Blick in die Zukunft planen sollte, insbesondere wenn neue trends sich abzeichnen 4k, 5k, 6k, 8k, HDR etc. fallen nicht plötzlich vom Himmel. Wenn ich mich in diesem Umfeld engagiere, muss ich mindestens auf dem Niveau meiner Kunden sein - es gilt also mit Augenmaß zu investieren - nicht kleckern, nicht klotzen, darauf achten das neue Komponenten noch mindestens den Abschreibungszeitraum aktuell bleiben oder aktuell gehalten (updatefähig) werden können.

Ein Desktop für ein paar tausend Euro lässt sich fast immer ersetzen, aber wenn das gesamte Equipment (Kameras, Monitore, Rechner, das firmeninterne Netz, Speicher etc.) auf einen Schlag ersetzt werden muss, weil immer nur billigst investiert wurde, ist das eben auch nicht umsichtig.

Ich schreibe niemandem vor wie er zu rechnen oder zu investieren hat, aber wenn es es um nennenswerte Summen geht (und bei uns waren die 12 Kerner mit allem Zubehör eine lange Rechnung) sollte man sich gut informieren, gut beraten lassen (wenn man es selbst nicht kann) und nicht immer im "Geiz ist Geil Rahmen" denken, das rächt sich meist schneller als man denkt. Auf der anderen Seite ist klotzen aber rausgeschmissenes Geld und das rächt sich wenn fast alles finanziert wurde!

Das man nicht alles vorhersehen kann ist aber auch klar, es ist genau das Risiko des Unternehmers, welches Angestellte lieber meiden wollen…
 
Es ist eigentlich schon länger klar, dass der MacPro erstens nur eine kleinere Klientel bedienen wird / soll und das er zweitens erst dann leistungsmäßig beurteilt werden kann , wenn man ihn tatsächlich testen kann. Die Applerechner sind von den gemessenen Leistungswerten im Verhältnis zu den reinen Zahlenwerten der Einzelkomponenten, meist sehr effizient. (Sprich die nicht immer leistungsstärkste Hardware bringt in der Praxis meist ordentliche Leistung > siehe MacMini)

Der ultimative Test für den MacPro ist aber die Frage ob überhaupt jemand die 1,5 TB Arbeitsspeicher für 30000€ ordern wird… ;) (Gleichwohl kann ich mir vorstellen, dass einige große Studios selbst bei 60000€ nicht groß mit der Wimper zucken, allein die Kameraausstattung, mit Licht, Speicher, Objektiven etc. kostet öfter mal an die 100 000€)

richtig - ausserdem wird den meisten wohl "normaler" RAM für pro apps in den Grössen von 92 bis 256GB genügen, oder?
 
Ich glaube auf dem aktuellsten Stand ist der MacPro nicht, zumindest was den PCIe-Standard angeht. Da ist noch PCIe 3.0 verbaut, während PCIe 4.0 meines Wissens nach aktuell nur in den neuen AMD-Systemen (X570-Chipsatz bzw. Threadripper 3000-Systeme) verbaut werden.

https://www.computerbase.de/2019-06/apple-mac-pro-2019-details/

Vielleicht kommt Apple ja mal auf die Idee statt nur bei den Grafikkarten auch mal bei den CPUs auf AMD zu setzen. Die aktuellen Threadripper lassen ja jede Ausbaustufe des MacPro im Regen stehen...

Zitat Computerbase-Test:

"Threadripper ist keine Server-CPU, ein Vergleich bietet sich – rein bezogen auf die Leistung der Kerne – aber dennoch an: Mit 17.448 Punkten im Cinebench R20 (Multi-Core) übertrifft die 32-Kern-CPU 3970X das CPU-Gespann aus zwei Intel Xeon Platinum 8180 mit in Summe 56 Kernen, das im Test der Redaktion auf 17.143 Punkte kam."

https://www.computerbase.de/2019-11...x-test/2/#abschnitt_benchmarks_in_anwendungen



apple ist durch thunderbolt derart mit intel verlobt das es gar keine möglichkeit gäbe auf AMD CPUs zu setzen

andererseits kann man nie sagen wie es dann mit dem USB 4 standard weiter geht.


und jetzt wirds dann richtig rattern in der filmbranche:

https://ymcinema.com/2019/12/13/red...les-metal-for-native-r3d-grading-and-editing/

wobei RED hier in europa keinen so hohen stellenwert hat wie in übersee,
aber nachdem bei arri bei 4,5k derzeit schluss ist bei der auflösung, und
alle blockbuster inzwischen fast nur mehr in der postproduktion hergestellt werden,
ist eben 8k schon die auflösung für den workflow.

und sollten die ganzen 3D renderer ihre versprechen auch durchziehen, wird man
um den neuen macpro im fetten zustand in dem bereich fast nicht herumkommen.

ein befreundeter regiesseur sagte mir das in dem filmstudio für das er im moment
in los angeles tätig ist 200 macpro in maximalaustattung inkl. XDR displays geordert wurden.
 
  • Gefällt mir
Reaktionen: chris25
Besten Dank Indio…
dafür, dass DU gerade genau meine Thesen "mit dem Blick immer auch nach vorn" untermauerst. ;)

Klar ist aber auch, dass wir hier von professioneller Postproduktion der oberen Ligen sprechen. Das (8k) braucht der Youtuber, der Fernsehmensch und ähnliche Medienproduzenten aktuell nicht, aber es ist wie in vielen Fragen, heute top-of-the-notch ist in ein paar Jahren Alltag… Berücksichtigt man nun noch seine eigenen Pläne für in ein paar Jahren, sollte man dies nicht außer acht lassen.
Nebenbei 8K heute eher noch bei Blockbustern, aber die Japaner wollen für die Olympischen Spiele 2020 den Großteil des Programms in 8K streamen, das wird den Verkauf der entsprechenden Geräte sicher ankurbeln – und wer erst einmal angefixt ist… Selbst die meisten kleinen "Privatkinos" werden heute nicht mehr mit Stereoton betrieben, es gibt schon einige die 11.1 Systeme in der Wohnung haben.
 
apple ist durch thunderbolt derart mit intel verlobt das es gar keine möglichkeit gäbe auf AMD CPUs zu setzen
Thunderbolt läuft auch auf AMD Systemen. Es gibt schon seit einiger Zeit Motherboards von ASRock und Gigabyte die das unterstützen.
 
allerdings darf man nicht vergessen das japan seit einigen jahren 8k TV haben,
aber sie auch die einzigen auf dem planeten sind.

waren ja auch schon bei 4k zuhause weit vor uns
 
Das liegt daran, dass der Anspruch selbst bei Pro-Usern, von der sehr kleinen tatsächlichen Zielgruppe des neuen Pro vielleicht einmal abgesehen, schon seit Jahren nicht mehr mit der Geschwindigkeit früherer Zeiten steigt. Und das wird sich eher noch deutlich verlangsamen.

Schon 8k etwa macht ja auf der Mehrzahl der Konsumer-Wiedergabegeräte nicht mehr wirklich Sinn. Und - Fortschritt hin oder her - habe ich meine Zweifel, dass wir in 20 Jahren alle zwei auf drei Meter große Glotzen im Wohnzimmer stehen haben, auf denen wir dann unbedingt 16k „brauchen“, damit wir keine Pixel mehr sehen.

Irgendwann wird’s halt einfach mal ruhiger.
Ja, sehe ich ähnlich. Doch ruhiger wirds aus meiner Sicht eher nicht werden. Die Entwicklung findet dann wohl woanders statt.
Ich vermute, das es in den nächsten 10 - 20 Jahren immer mehr vernetzte „Smart Devices“ gehen wird, die immer komplexere Alltags-Aufgaben übernehmen werden. Die Rechenleistung wird sich dann auf viele Geräte verteilen, wodurch die Themen Energieeffizienz und KI auch im Privatsektor marktbestimmend werden. Größere Rechner nach heutigem Maßstab wird es fast nur noch in Firmen und bei sehr wenigen Privatanwendern geben. Das Fernsehen in seiner heutigen Form wird vermutlich ganz verschwinden und durch interaktive und auf den Benutzer ausgerichtete Inhalte ersetzt werden, die diesem fast überall zur Verfügung stehen. Lernen an und mit diesen Geräten wird wohl so normal sein wie heute ein Spaziergang.
Allerdings könnte es auch ganz anders kommen. Vorhersagen dieser Art haben sich im Nachhinein meist als komplett falsch erwiesen:)
 
Ich glaube auf dem aktuellsten Stand ist der MacPro nicht, zumindest was den PCIe-Standard angeht. Da ist noch PCIe 3.0 verbaut, während PCIe 4.0 meines Wissens nach aktuell nur in den neuen AMD-Systemen (X570-Chipsatz bzw. Threadripper 3000-Systeme) verbaut werden.

https://www.computerbase.de/2019-06/apple-mac-pro-2019-details/

Vielleicht kommt Apple ja mal auf die Idee statt nur bei den Grafikkarten auch mal bei den CPUs auf AMD zu setzen. Die aktuellen Threadripper lassen ja jede Ausbaustufe des MacPro im Regen stehen...

Zitat Computerbase-Test:

"Threadripper ist keine Server-CPU, ein Vergleich bietet sich – rein bezogen auf die Leistung der Kerne – aber dennoch an: Mit 17.448 Punkten im Cinebench R20 (Multi-Core) übertrifft die 32-Kern-CPU 3970X das CPU-Gespann aus zwei Intel Xeon Platinum 8180 mit in Summe 56 Kernen, das im Test der Redaktion auf 17.143 Punkte kam."

https://www.computerbase.de/2019-11...x-test/2/#abschnitt_benchmarks_in_anwendungen

Hast Recht, nur PCI 3gen... Hatte ich anders in Erinnerung.

Ja, AMD wäre eine sehr gute Alternative gewesen. Schade, das man das nicht in die Überlegungen mit einbezogen hat. Immerhin wurde seit 2017 am Mac Pro entwickelt!

Allerdings kam Ryzen 3 / Zen 2 erst 2019 - vielleicht war die Zeit einfach zu knapp und / oder man wollte nicht gerade beim Flagschiff plötzlich auf einen Architekturwandel setzen, der natürlich auch viele neue Fehlerquellen mit sich bringt.
 
wobei von AMD eigentlich nur der EPYC in frage kommen könnte wegen lanes und speicherkanäle
 
wobei von AMD eigentlich nur der EPYC in frage kommen könnte wegen lanes und speicherkanäle
Die Threadripper 3000 Plattform hat mit 88 PCIe 4.0 Lanes sogar mehr Lanes als der Mac Pro, nur das Speicherinterface ist derzeit auf 4 Kanäle und unbuffered Speicher beschränkt. Vielleicht gibt es da noch eine Überraschung. Es gab Gerüchte über einen sTRX80 bzw. WRX80 Chipsatz. Vielleicht erscheint dieser mit dem 64-Kern 3990X nächsten Monat? An sich wird Threadripper von AMD als Workstation/HEDT CPU positioniert, während EPYC für Server gedacht ist.
 
Die Threadripper 3000 Plattform hat mit 88 PCIe 4.0 Lanes sogar mehr Lanes als der Mac Pro, nur das Speicherinterface ist derzeit auf 4 Kanäle und unbuffered Speicher beschränkt. Vielleicht gibt es da noch eine Überraschung. Es gab Gerüchte über einen sTRX80 bzw. WRX80 Chipsatz. Vielleicht erscheint dieser mit dem 64-Kern 3990X nächsten Monat? An sich wird Threadripper von AMD als Workstation/HEDT CPU positioniert, während EPYC für Server gedacht ist.

nur lassen sich auf der AMD plattform keine 6 thunderbolt kanäle realisieren mit vergleichbaren aufwand
 
Zurück
Oben Unten