Vorstellung des neuen Mac Pro ... Diskussion

Diskutiere das Thema Vorstellung des neuen Mac Pro ... Diskussion im Forum Mac Pro, Power Mac, Cube. Aus dem WWDC-Thread herausgelöst, hier der Thread zur Diskussion über den neuen Mac Pro. Zumindest so weit, wie man...

MrBaud

Mitglied
Mitglied seit
09.02.2019
Beiträge
2.224
Es gibt übrigens immer noch Leute die weder HD-TV, noch 4k, noch 8k schauen....und das stört noch nicht mal
 

flyproductions

Mitglied
Mitglied seit
04.11.2004
Beiträge
2.686
Naja, das ist ja jetzt auch schon so. 8K macht ja aus Gründen der Bildqualität nicht wirklich Sinn.
Bei halbwegs Wohnzimmer-kompatiblen Bildschirmgrößen tatsächlich nicht.

Bei Full HD zu 4k war das aber noch deutlich anders. Ich dachte da ja auch erst, mehr als 1080 braucht kein Mensch. Aber setz dich mal nach einem halben Jahr mit einem 55" 4k Fernseher vor einen gleich großen Full HD. Dann weißt du, was ich meine.
 
  • Gefällt mir
Reaktionen: Scum

MacEnroe

Mitglied
Mitglied seit
10.02.2004
Beiträge
19.341
Bei Full HD zu 4k war das aber noch deutlich anders. Ich dachte da ja auch erst, mehr als 1080 braucht kein Mensch. Aber setz dich mal nach einem halben Jahr mit einem 55" 4k Fernseher vor einen gleich großen Full HD. Dann weißt du, was ich meine.
Kommt doch auf die Sendungen an. Die Bildqualität ist oft so schlecht, da merke ich nicht mal, ob
es ein HD Programm ist. Und selbst HD Programme senden ja nicht in 4K, oder irre ich mich da?
 

djofly

Mitglied
Mitglied seit
31.07.2006
Beiträge
2.867
Und dennoch ist Premiere das Videoschnitt Tool mit dem höchsten Marktanteil.
Wobei Hollywood fast ausschließlich den Avid Media Composer benutzt - den viele noch nicht mal vom Namen her kennen. Und eben Davinci fürs Grading, wobei das ja schon lange mehr als das kann.
https://blog.frame.io/2019/08/19/avid-in-hollywood/

Bei den Youtubern gibt es halt den Kampf zwischen Premiere, Final Cut und Davinci.
Das in 6k oder 8k gefilmt wird, hat auch meistens eher den Grund, hinterher für ein 4k Master genug Auflösung zu haben, um verlustfrei den Bildausschnitt neu zu wählen, reinzuzommen, Kamerschwenks und Zooms zu simulieren, Stabilisierung usw.
Wobei Hollywood hier stark hinterher hängt. Die meisten Filme werden nach wie vor nur in 2k geschnitten.
Serienanbieter wie Netflix haben hier strengere Anforderungen. Unter 4k mit bestimmten Kameras geht nix.
 
  • Gefällt mir
Reaktionen: picknicker1971, spatiumhominem und maba_de

flyproductions

Mitglied
Mitglied seit
04.11.2004
Beiträge
2.686
Kommt doch auf die Sendungen an. Die Bildqualität ist oft so schlecht, da merke ich nicht mal, ob
es ein HD Programm ist. Und selbst HD Programme senden ja nicht in 4K, oder irre ich mich da?
Ja, dass inzwischen zumindest jeder Tech-YouTuber in besserer Qualität „ausstrahlt“ als unsere „Öffentlich Rechtlichen“ für ihre 17 Euro im Monat, steht nochmal auf einem anderen Blatt. Da ist 4k nämlich inzwischen absoluter Standard. Aber auch das „Fernseh HD“ sieht auf einem großen Fernseher auf 4k hochinterpoliert schon deutlich netter aus als mit 1920 x 1080 Pixeln. Auch wenn das natürlich keine „echte Qualität“ ist.
 

Lor-Olli

Mitglied
Mitglied seit
24.04.2004
Beiträge
8.969
Kann man wirklich den Schluss so ziehen? Woher willst du wissen, was aktuell entwicklet wird als (bahnbrechend?) neue Technik in welchem Unternehmen, oder wann was "in"/notwendig wird?

Beispiel aus meiner Erfahrung: Wir haben einen 8000 Core "Supercomputer" gekauft mit 102 TB RAM (und 60 Geforce 1080) genau 4 Monate bevor Ryzen rauskam. Jetzt gibts das aktuelle (Intel) CPU-Äquivalent (also aktuelle Generation) für weniger als die Hälfte des Gelds.
In den 7 Jahren davor war so gut wie 0 Entwicklung auf dem Markt, und unser altes Cluster wurde nur zwangsweise gewechselt, weil out of support. Performance technisch war da nicht der große Unterschied.

Nur weil die Hardware neu kaufen müssen, heißt das ja nicht, fehlinvestiert oder falsch geplant.
Ganz und gar nicht, da stimme ich in allen Punkten zu! Das ABER bezieht sich auf den Umstand, dass man in einer so "schnellen Branche" wie dem Medien- / Filmmarkt immer mit einem Blick in die Zukunft planen sollte, insbesondere wenn neue trends sich abzeichnen 4k, 5k, 6k, 8k, HDR etc. fallen nicht plötzlich vom Himmel. Wenn ich mich in diesem Umfeld engagiere, muss ich mindestens auf dem Niveau meiner Kunden sein - es gilt also mit Augenmaß zu investieren - nicht kleckern, nicht klotzen, darauf achten das neue Komponenten noch mindestens den Abschreibungszeitraum aktuell bleiben oder aktuell gehalten (updatefähig) werden können.

Ein Desktop für ein paar tausend Euro lässt sich fast immer ersetzen, aber wenn das gesamte Equipment (Kameras, Monitore, Rechner, das firmeninterne Netz, Speicher etc.) auf einen Schlag ersetzt werden muss, weil immer nur billigst investiert wurde, ist das eben auch nicht umsichtig.

Ich schreibe niemandem vor wie er zu rechnen oder zu investieren hat, aber wenn es es um nennenswerte Summen geht (und bei uns waren die 12 Kerner mit allem Zubehör eine lange Rechnung) sollte man sich gut informieren, gut beraten lassen (wenn man es selbst nicht kann) und nicht immer im "Geiz ist Geil Rahmen" denken, das rächt sich meist schneller als man denkt. Auf der anderen Seite ist klotzen aber rausgeschmissenes Geld und das rächt sich wenn fast alles finanziert wurde!

Das man nicht alles vorhersehen kann ist aber auch klar, es ist genau das Risiko des Unternehmers, welches Angestellte lieber meiden wollen…
 

peppermint

Mitglied
Mitglied seit
06.06.2003
Beiträge
7.616
Es ist eigentlich schon länger klar, dass der MacPro erstens nur eine kleinere Klientel bedienen wird / soll und das er zweitens erst dann leistungsmäßig beurteilt werden kann , wenn man ihn tatsächlich testen kann. Die Applerechner sind von den gemessenen Leistungswerten im Verhältnis zu den reinen Zahlenwerten der Einzelkomponenten, meist sehr effizient. (Sprich die nicht immer leistungsstärkste Hardware bringt in der Praxis meist ordentliche Leistung > siehe MacMini)

Der ultimative Test für den MacPro ist aber die Frage ob überhaupt jemand die 1,5 TB Arbeitsspeicher für 30000€ ordern wird… ;) (Gleichwohl kann ich mir vorstellen, dass einige große Studios selbst bei 60000€ nicht groß mit der Wimper zucken, allein die Kameraausstattung, mit Licht, Speicher, Objektiven etc. kostet öfter mal an die 100 000€)
richtig - ausserdem wird den meisten wohl "normaler" RAM für pro apps in den Grössen von 92 bis 256GB genügen, oder?
 

Indio

Mitglied
Mitglied seit
16.06.2004
Beiträge
947
Ich glaube auf dem aktuellsten Stand ist der MacPro nicht, zumindest was den PCIe-Standard angeht. Da ist noch PCIe 3.0 verbaut, während PCIe 4.0 meines Wissens nach aktuell nur in den neuen AMD-Systemen (X570-Chipsatz bzw. Threadripper 3000-Systeme) verbaut werden.

https://www.computerbase.de/2019-06/apple-mac-pro-2019-details/

Vielleicht kommt Apple ja mal auf die Idee statt nur bei den Grafikkarten auch mal bei den CPUs auf AMD zu setzen. Die aktuellen Threadripper lassen ja jede Ausbaustufe des MacPro im Regen stehen...

Zitat Computerbase-Test:

"Threadripper ist keine Server-CPU, ein Vergleich bietet sich – rein bezogen auf die Leistung der Kerne – aber dennoch an: Mit 17.448 Punkten im Cinebench R20 (Multi-Core) übertrifft die 32-Kern-CPU 3970X das CPU-Gespann aus zwei Intel Xeon Platinum 8180 mit in Summe 56 Kernen, das im Test der Redaktion auf 17.143 Punkte kam."

https://www.computerbase.de/2019-11...x-test/2/#abschnitt_benchmarks_in_anwendungen


apple ist durch thunderbolt derart mit intel verlobt das es gar keine möglichkeit gäbe auf AMD CPUs zu setzen

andererseits kann man nie sagen wie es dann mit dem USB 4 standard weiter geht.


und jetzt wirds dann richtig rattern in der filmbranche:

https://ymcinema.com/2019/12/13/red...les-metal-for-native-r3d-grading-and-editing/

wobei RED hier in europa keinen so hohen stellenwert hat wie in übersee,
aber nachdem bei arri bei 4,5k derzeit schluss ist bei der auflösung, und
alle blockbuster inzwischen fast nur mehr in der postproduktion hergestellt werden,
ist eben 8k schon die auflösung für den workflow.

und sollten die ganzen 3D renderer ihre versprechen auch durchziehen, wird man
um den neuen macpro im fetten zustand in dem bereich fast nicht herumkommen.

ein befreundeter regiesseur sagte mir das in dem filmstudio für das er im moment
in los angeles tätig ist 200 macpro in maximalaustattung inkl. XDR displays geordert wurden.
 
  • Gefällt mir
Reaktionen: chris25

Lor-Olli

Mitglied
Mitglied seit
24.04.2004
Beiträge
8.969
Besten Dank Indio…
dafür, dass DU gerade genau meine Thesen "mit dem Blick immer auch nach vorn" untermauerst. ;)

Klar ist aber auch, dass wir hier von professioneller Postproduktion der oberen Ligen sprechen. Das (8k) braucht der Youtuber, der Fernsehmensch und ähnliche Medienproduzenten aktuell nicht, aber es ist wie in vielen Fragen, heute top-of-the-notch ist in ein paar Jahren Alltag… Berücksichtigt man nun noch seine eigenen Pläne für in ein paar Jahren, sollte man dies nicht außer acht lassen.
Nebenbei 8K heute eher noch bei Blockbustern, aber die Japaner wollen für die Olympischen Spiele 2020 den Großteil des Programms in 8K streamen, das wird den Verkauf der entsprechenden Geräte sicher ankurbeln – und wer erst einmal angefixt ist… Selbst die meisten kleinen "Privatkinos" werden heute nicht mehr mit Stereoton betrieben, es gibt schon einige die 11.1 Systeme in der Wohnung haben.
 

PLE

Mitglied
Mitglied seit
24.02.2005
Beiträge
79
apple ist durch thunderbolt derart mit intel verlobt das es gar keine möglichkeit gäbe auf AMD CPUs zu setzen
Thunderbolt läuft auch auf AMD Systemen. Es gibt schon seit einiger Zeit Motherboards von ASRock und Gigabyte die das unterstützen.
 

Indio

Mitglied
Mitglied seit
16.06.2004
Beiträge
947
allerdings darf man nicht vergessen das japan seit einigen jahren 8k TV haben,
aber sie auch die einzigen auf dem planeten sind.

waren ja auch schon bei 4k zuhause weit vor uns
 

hr47

Mitglied
Mitglied seit
29.03.2016
Beiträge
2.436
Das liegt daran, dass der Anspruch selbst bei Pro-Usern, von der sehr kleinen tatsächlichen Zielgruppe des neuen Pro vielleicht einmal abgesehen, schon seit Jahren nicht mehr mit der Geschwindigkeit früherer Zeiten steigt. Und das wird sich eher noch deutlich verlangsamen.

Schon 8k etwa macht ja auf der Mehrzahl der Konsumer-Wiedergabegeräte nicht mehr wirklich Sinn. Und - Fortschritt hin oder her - habe ich meine Zweifel, dass wir in 20 Jahren alle zwei auf drei Meter große Glotzen im Wohnzimmer stehen haben, auf denen wir dann unbedingt 16k „brauchen“, damit wir keine Pixel mehr sehen.

Irgendwann wird’s halt einfach mal ruhiger.
Ja, sehe ich ähnlich. Doch ruhiger wirds aus meiner Sicht eher nicht werden. Die Entwicklung findet dann wohl woanders statt.
Ich vermute, das es in den nächsten 10 - 20 Jahren immer mehr vernetzte „Smart Devices“ gehen wird, die immer komplexere Alltags-Aufgaben übernehmen werden. Die Rechenleistung wird sich dann auf viele Geräte verteilen, wodurch die Themen Energieeffizienz und KI auch im Privatsektor marktbestimmend werden. Größere Rechner nach heutigem Maßstab wird es fast nur noch in Firmen und bei sehr wenigen Privatanwendern geben. Das Fernsehen in seiner heutigen Form wird vermutlich ganz verschwinden und durch interaktive und auf den Benutzer ausgerichtete Inhalte ersetzt werden, die diesem fast überall zur Verfügung stehen. Lernen an und mit diesen Geräten wird wohl so normal sein wie heute ein Spaziergang.
Allerdings könnte es auch ganz anders kommen. Vorhersagen dieser Art haben sich im Nachhinein meist als komplett falsch erwiesen:)
 

hr47

Mitglied
Mitglied seit
29.03.2016
Beiträge
2.436
Ich glaube auf dem aktuellsten Stand ist der MacPro nicht, zumindest was den PCIe-Standard angeht. Da ist noch PCIe 3.0 verbaut, während PCIe 4.0 meines Wissens nach aktuell nur in den neuen AMD-Systemen (X570-Chipsatz bzw. Threadripper 3000-Systeme) verbaut werden.

https://www.computerbase.de/2019-06/apple-mac-pro-2019-details/

Vielleicht kommt Apple ja mal auf die Idee statt nur bei den Grafikkarten auch mal bei den CPUs auf AMD zu setzen. Die aktuellen Threadripper lassen ja jede Ausbaustufe des MacPro im Regen stehen...

Zitat Computerbase-Test:

"Threadripper ist keine Server-CPU, ein Vergleich bietet sich – rein bezogen auf die Leistung der Kerne – aber dennoch an: Mit 17.448 Punkten im Cinebench R20 (Multi-Core) übertrifft die 32-Kern-CPU 3970X das CPU-Gespann aus zwei Intel Xeon Platinum 8180 mit in Summe 56 Kernen, das im Test der Redaktion auf 17.143 Punkte kam."

https://www.computerbase.de/2019-11...x-test/2/#abschnitt_benchmarks_in_anwendungen
Hast Recht, nur PCI 3gen... Hatte ich anders in Erinnerung.

Ja, AMD wäre eine sehr gute Alternative gewesen. Schade, das man das nicht in die Überlegungen mit einbezogen hat. Immerhin wurde seit 2017 am Mac Pro entwickelt!

Allerdings kam Ryzen 3 / Zen 2 erst 2019 - vielleicht war die Zeit einfach zu knapp und / oder man wollte nicht gerade beim Flagschiff plötzlich auf einen Architekturwandel setzen, der natürlich auch viele neue Fehlerquellen mit sich bringt.
 

Indio

Mitglied
Mitglied seit
16.06.2004
Beiträge
947
wobei von AMD eigentlich nur der EPYC in frage kommen könnte wegen lanes und speicherkanäle
 

PLE

Mitglied
Mitglied seit
24.02.2005
Beiträge
79
wobei von AMD eigentlich nur der EPYC in frage kommen könnte wegen lanes und speicherkanäle
Die Threadripper 3000 Plattform hat mit 88 PCIe 4.0 Lanes sogar mehr Lanes als der Mac Pro, nur das Speicherinterface ist derzeit auf 4 Kanäle und unbuffered Speicher beschränkt. Vielleicht gibt es da noch eine Überraschung. Es gab Gerüchte über einen sTRX80 bzw. WRX80 Chipsatz. Vielleicht erscheint dieser mit dem 64-Kern 3990X nächsten Monat? An sich wird Threadripper von AMD als Workstation/HEDT CPU positioniert, während EPYC für Server gedacht ist.
 

Indio

Mitglied
Mitglied seit
16.06.2004
Beiträge
947
Die Threadripper 3000 Plattform hat mit 88 PCIe 4.0 Lanes sogar mehr Lanes als der Mac Pro, nur das Speicherinterface ist derzeit auf 4 Kanäle und unbuffered Speicher beschränkt. Vielleicht gibt es da noch eine Überraschung. Es gab Gerüchte über einen sTRX80 bzw. WRX80 Chipsatz. Vielleicht erscheint dieser mit dem 64-Kern 3990X nächsten Monat? An sich wird Threadripper von AMD als Workstation/HEDT CPU positioniert, während EPYC für Server gedacht ist.
nur lassen sich auf der AMD plattform keine 6 thunderbolt kanäle realisieren mit vergleichbaren aufwand
 
Oben