Mac Pro & Pro Display ab 2018 – Die neue Generation

Status
Für weitere Antworten geschlossen.
wir reden weiter, sobald der neue Mac Pro da ist..
Auf jeden Fall!
Freue mich schon drauf!
Du kennst die Farbe meiner Brille nicht,
Dein Nick und Beiträge geben die Richtung!
So banal, einfach ein paar CPUs rein, dazu ein paar freie Steckplätze, und fertig ist der neue Mac Pro, mehr kannst du dir nicht vorstellen?
Du beziehst dich eindeutig auf das angebliche kommende Modulkonzept, aber das wird nicht die Geschwindigkeit machen!

Das Teil wird aus einer Platine bestehen, TB 3 unterstützen, aktuelles PCI, eine Taktung für Bus und Ram die technisch möglich ist, Grafik auf den aktuellen Stand bringen, denn selber bauen tun sie die Dinger ja nicht, so wie das Meiste!!!
(Kaufen die Sachen ein und verfrachten die in ihre Gehäuse!)

Was soll da so weltbewegendes denn kommen, außer wie gesagt den modularen Ansatz, der ja auch nicht neu ist?

An einen Quantenrechner von Apple kann ich nicht glauben, nicht an einen Bus per Lichtübertragung oder Supraleiter, an einen Rechner der Neuronal arbeitet u.s.w.
All das wird nicht kommen, also was erwartest du denn weltbewegenes?

Ein schönes blinki, blinki Gehäuse in goldfarbend, wo der Einschaltknopf und weitere Anschlüsse zwecks der Optik zur Abwechslung mal im Boden eingelassen sind?
(Die Rückwand hatten wir ja schon beim iMac) :hehehe:

Ich sag ja, Schickimicki für Schickimicki Leute! :p
 
Zuletzt bearbeitet:
Dein Nick und Beiträge geben die Richtung!

Oh, das liebe ich ja so, hast du denn auch schon den Kaffeesatz zu Rate gezogen, um meinen Hintergrund zu beurteilen? Dein Nickname ist auch vielversprechend, aber daran beurteile ich die Menschen nicht, die Beiträge haben da schon mehr Aussagekraft, aber diese sind bei dir auch eher nichts, Standardfloskeln..

Das Teil wird aus einer Platine bestehen, TB 3 unterstützen, aktuelles PCI, eine Taktung für Bus und Ram die technisch möglich ist, Grafik auf den aktuellen Stand bringen, denn selber bauen tun sie die Dinger ja nicht, so wie das meiste!!!
(Kaufen die Sachen ein und verfrachten die in ihre Gehäuse!)

Deswegen bist du auch kein Hardwareentwickler, sondern normaler durchschnittlicher Nutzer - du hast ein herkömmliches System beschrieben (dazu braucht man nicht lange an Entwicklungszeit), so etwas wird es von Apple nicht mehr geben..

Was soll da so weltbewegendes denn kommen, außer wie gesagt den modularen Ansatz, der ja auch nicht neu ist?

Die Art und Weise wie die Komponenten mit einander interagieren, damit meine ich nicht mechanisch, also nicht wie sie im Gehäuse angeordnet und befestigt sind, sondern die Systemarchitektur an sich, das wird in so manchen Punkten komplett neuartig sein..
 
du hast ein herkömmliches System beschrieben (dazu braucht man nicht lange an Entwicklungszeit), so etwas wird es von Apple nicht mehr geben..
Die Art und Weise wie die Komponenten mit einander interagieren, damit meine ich nicht mechanisch, also nicht wie sie im Gehäuse angeordnet oder befestigt sind, sondern die Systemarchitektur an sich..
Na da bin ich ja gespannt! :p

Und wir werden über das Teil dann reden wenn es vorgestellt wurde!
 
Hauptsächlich am Prozessor? :crack: So banal, einfach ein paar CPUs rein, dazu ein paar freie Steckplätze, und fertig ist der neue Mac Pro, mehr kannst du dir nicht vorstellen? Ich sag ja, ihr habt keine Ahnung! Heute ist technisch viel mehr möglich, Apple wird eine komplett neue Systembauweise entwickeln, das wird durchaus Standardkomponennten enthalten, die aber völlig neu miteinander verbunden und aufgebaut sein werden, das wird mit herkömmlichen Workstations, wie wir sie heute kennen, nicht vergleichbar sein - warum das andere Hersteller bisher nicht entwickelt haben, weil sie nicht Apple sind, und weil sie lieber in ihrer Trägheit und Einfallslosigkeit verweilen..

Solange die Codebase der Apps z.B. von Adobe und Autodesk so veraltet sind bringen auch "komplett neue Systembauweisen" und ach so tolle neue Mac Pros herzlich wenig - weil diese Apps schnelle Hardware eh nur sehr bedingt nutzen können.

Und was "Trägheit und Einfallslosigkeit" betrifft - Apple baut sehr kleine, dünne und stylische "Lifestyle"-Geräte (teilweise sogar in Roségold ;O)!) - den Beweis für wirklich Neues bleiben sie aber bereits seit vielen Jahren schuldig.

P.S.:
Als jemand der seit mehr als 30 Jahren >Computer< als Werkzeuge im Bereich Grafik/Softwareentwicklung nutzt habe ich noch nie verstanden weshalb ich mich durch eine "Marke" oder ein bestimmtes OS einschränken lassen sollte - ich nutze einfach das System mit dem ich am besten meine Projekte verwirklichen kann.
Und aktuell baue ich mir diese (wie viele andere) einfach je nach den Anforderungen schnell und günstig selbst zusammen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Macschrauber und Rednose
Die Art und Weise wie die Komponenten mit einander interagieren, damit meine ich nicht mechanisch, also nicht wie sie im Gehäuse angeordnet und befestigt sind, sondern die Systemarchitektur an sich, das wird in so manchen Punkten komplett neuartig sein..
Da Apple im Desktop-CPU und GPU-Bereich keine eigenen Entwicklungen betreibt ist eine Lösung, die technisch komplett neue Wege geht eher unwahrscheinlich. Den Aufwand könnte Apple über ein Nischenprodukte wie den Mac Pro niemals wieder reinholen.

Ich erwarte, dass der Mac Pro im Wesentlichen als FCPX-Maschine konzipiert wird. Basis wird wohl Intels Purely-Plattform sein, alles andere wäre Quatsch. Im GPU-Bereich ist man mehr oder weniger auf AMD festgelegt, was für Compute-Aufgaben im Videobereich auch keine schlechte Wahl ist. Hier erwarte ich eine oder zwei Vega-GPUs mit schneller, integrierter SSD-Anbindung (vgl. Radeon Pro SSG). Für bringt das einen nennenswerten Boost, wie AMD schon gezeigt hat.
Spannend wird die Frage, ob man eine TB3-Integration ohne Custom Design der GPUs hinbekommen wird. Letzteres würde den Mac Pro wieder in dieselbe Ecke manövrieren in der auch der aktuelle klemmt...

Gleichzeitig wären für allgemeine Pro-Anwendungen Nvidia-GPUs von Vorteil. Der Durchsatz der Grafikpipeline scheint bei Vega eher traurig zu sein, man konkurriert da aktuell mit Nvidia-GPUs, die mehr als ein Jahr auf dem Buckel haben - bei doppelter Stromaufnahme. Auch ist in vielen Bereichen CUDA Pflicht, wäre schade wenn Apple sich da künstlich einschränken würde.
 
  • Gefällt mir
Reaktionen: Rednose
Gleichzeitig wären für allgemeine Pro-Anwendungen Nvidia-GPUs von Vorteil. Der Durchsatz der Grafikpipeline scheint bei Vega eher traurig zu sein, man konkurriert da aktuell mit Nvidia-GPUs, die mehr als ein Jahr auf dem Buckel haben - bei doppelter Stromaufnahme. Auch ist in vielen Bereichen CUDA Pflicht, wäre schade wenn Apple sich da künstlich einschränken würde.

Immerhin scheinen die neuen Vega GPUs perfekt für das Mining zu sein ;O)...

Auch wenn es bei mir wohl keine Vega FE / Pro / 64 / 56 werden wird, als Anwender freue ich mich natürlich nach vielen Jahren endlich mal wieder eine WAHL zu haben - und das Konkurrenz für den Kunden immer von Vorteil ist zeigt z.B. ja auch das neue "385.12 Treiberupdate" welches bei den Titan X (Pascal) / Titan Xp einige Quadro Features freischaltet was in einigen Anwendungen zu erheblichen Leistungssteigerungen führt:

http://wccftech.com/nvidia-titan-xp-titan-x-385-12-driver-update-massive-performance/

Viel interessanter ist die Situation aktuell ja bei den CPUs, hier überlege ich ernsthaft seit langer Zeit wieder mal ein System mit AMD CPU aufzubauen - egal ob "Ryzen" oder "Threadripper", für viele Anwendungen sehr geeignet und preislich erheblich günstiger.
Denn wie Du bereits auch ganz richtig geschrieben hattest, weshalb sich "künstlich einschränken" lassen ;O)
 
Zuletzt bearbeitet:
Ich lehne mich einmal weit aus dem Fenster: Ohne dass sie Planungssicherheit geben, können sie bauen, was sie wollen. Ich denke, für die professionellen Anwender, die ihr hier beschreibt, zählt dieser Punkt vielleicht mehr, als das letzte Quäntchen an Geschwindigkeit oder gar das Design des Gerätes.
Apple hat in/mit der letzten WWDC viel an Boden gutgemacht, aber sie haben zuvor in der langen Zeit des (gefühlten) Stillstandes auch sehr viel an Boden verloren...
 
  • Gefällt mir
Reaktionen: Rednose und electricdawn
Solange die Codebase der Apps z.B. von Adobe und Autodesk so veraltet sind bringen auch "komplett neue Systembauweisen" und ach so tolle neue Mac Pros herzlich wenig - weil diese Apps schnelle Hardware eh nur sehr bedingt nutzen können.

Und was "Trägheit und Einfallslosigkeit" betrifft - Apple baut sehr kleine, dünne und stylische "Lifestyle"-Geräte (teilweise sogar in Roségold ;O)!) - den Beweis für wirklich Neues bleiben sie aber bereits seit vielen Jahren schuldig.

P.S.:
Als jemand der seit mehr als 30 Jahren >Computer< als Werkzeuge im Bereich Grafik/Softwareentwicklung nutzt habe ich noch nie verstanden weshalb ich mich durch eine "Marke" oder ein bestimmtes OS einschränken lassen sollte - ich nutze einfach das System mit dem ich am besten meine Projekte verwirklichen kann.
Und aktuell baue ich mir diese (wie viele andere) einfach je nach den Anforderungen schnell und günstig selbst zusammen.

Wie du weißt, schafft es Apple selbst nicht einmal, seine Software halbwegs so zu programmieren, dass ihre Hardware ausgereizt werden kann.
 
  • Gefällt mir
Reaktionen: Hausbesetzer
Auch wenn es bei mir wohl keine Vega FE / Pro / 64 / 56 werden wird, als Anwender freue ich mich natürlich nach vielen Jahren endlich mal wieder eine WAHL zu haben - und das Konkurrenz für den Kunden immer von Vorteil ist zeigt z.B. ja auch das neue "385.12 Treiberupdate" welches bei den Titan X (Pascal) / Titan Xp einige Quadro Features freischaltet was in einigen Anwendungen zu erheblichen Leistungssteigerungen führt:
Ja das stimmt wohl, sieht man auch gut an den aktuellen Intel-Gerüchten: http://wccftech.com/intels-8th-generation-core-i3-8300-4-core-with-hyper-threading/

Konkurrenz belebt eben das Geschäft. :)
 
Wenn man mich machen lassen würde, dann würde ich die Skalierbarkeit durch Cluster realisieren. Einen netten Mac Pro, jetzt mal ganz egal wie der technisch aufgebaut ist, ist ein Glied der Kette. Brauch ich mehr Rechenleistung hänge ich halt zwei, drei, zwölf, hundert... ... aneinander.

Apple hat mit Xgrid schon mal was Ähnliches gehabt.
 
yup, so in etwa, was ist denn mehr Pro wie ein(e) Server(Farm) ? Apple darf nur noch an der Kühlung arbeiten damit man das System auch ohne Gehörschutz benutzen kann. Ich hoffe hier endlich mal auf eine Inovation in Richtung Antischall, das kann die Menschheit wirklich gut gebrauchen...
 
  • Gefällt mir
Reaktionen: Rednose
OT / Off Topic
Solche Server stehen ja nicht in Büros mit arbeitenden Menschen - weshalb es eigentlich auch keine wirkliche Rolle spielt, dass die kleinen (schnellen) Lüfter in typischen Servern nicht gerade leise sind ;O)

Und was kleine >Workstations< (wie einen "Mac Pro" oder ähnliche Systeme) anbelangt - bei den hier ja eigentlich stets überschaubaren Komponenten ist eine adäquate Kühlung - die zudem noch leise ist - kein wirkliches Problem.
Jeder der sich solche Systeme zusammenstellt weiß genau wie es geht, das klappt auch ohne passive Kühlung mit den richtigen Lüftern / Pumpen / Radiatoren / Gehäusen ganz hervorragend.

Ach und wenn diese Systeme nicht >proprietär< sind - sprich ich aus allen Standard-Komponeten die sich auf dem Markt befinden wählen kann - wird das noch viel einfacher...
 
  • Gefällt mir
Reaktionen: Rednose
Eigentlich wäre es nur Software... Ich stelle mir eine Abteilung mit potenten Macs vor, viele von denen laufen nur auf Teillast bei normaler Benutzung. Wenn einer in dem Netz Rechenleistung, zum Beispiel beim Rendern, braucht könnten die Anderen im Netzwerk ungenutzte Rechenleistung zur Verfügung stellen. Wieder effektive Kühlung vorausgesetzt damit der Benutzer des helfenden Macs nicht mit Lärm belästigt wird.
 
Und dann gibt es ja noch massig Software für macOS, die damit umgehen kann...
 
Deshalb schrieb ich eigentlich und wäre. Vom Prinzip wäre das die Aufgabe des Betriebssystems. Aber da es massig Programme gibt die noch nicht mal von mehreren Kernen oder der Rechenleistung der eingebauten GPU Gebrauch machen ist da noch massig Luft nach Oben.
 
  • Gefällt mir
Reaktionen: Rednose
Aber da es massig Programme gibt die noch nicht mal von mehreren Kernen oder der Rechenleistung der eingebauten GPU Gebrauch machen ist da noch massig Luft nach Oben.
Das ist/war die verarsche an den Konsumenten!
Um vieles könnte das OS oder die Programme in Macs oder PCs schneller arbeiten, wenn die Programme die CPUs richtig nutzen wurden!

(Noch heutzutage liegen Kerne häufig brach, was die Frage aufwirft, was soll ich dann mit einer 4 oder 8 Kern CPU, wenn ich nicht gerade Logic u.s.w. verwende!
Und genau "Macschrauber", die nicht gebrauchten Kerne der GPU könnte man auch prima mit einbinden, was ja auch vor langer Zeit mal in Aussicht gestellt wurde!)

Lass mich lügen, aber schon Ende der achtziger Anfang der neunziger habe ich in einer Studiozeitschrift einen Bericht über ein neuronalen Ansatz von Programmen gelesen mit der Aussicht das das kommen wird, aber geschehen ist bis heute nichts!

Wird Zeit das sie die OS und die Platinen endlich mal in diese Richtung entwickeln, denn CPUs mit einer großen Anzahl an Kernen gibt es ja schon!

Würde für den normalen Kunde ja schon reichen wenn 16 oder 32 Kerne intelligent genutzt werden könnten.
 
Zuletzt bearbeitet:
Das Problem (welches auch schon damals aufgetreten ist) liegt nicht nur an der vermeintlichen Faulheit der Programmierer (I'm looking at you, Adobe), sondern auch daran, dass sich schlicht nur die wenigsten Prozesse parallelisieren lassen. Automatisch geht das nur sehr schlecht, und selbst von Hand ist es ein Riesenaufwand. Bei denen, wo es etwas bringt, wird es ja teilweise auch schon gemacht (BitCoins schuerfen z.B.), aber es geht halt nicht durch die Bank. Deswegen hat AMD sich ja vor Jahren so verrechnet, als sie versucht haben, der uebermaechtigen Single-Core-Performance der Intel-Prozessoren, schwaechere, aber viele Multi-Cores entgegenzusetzen. Vor ca. 10 Jahren nahm jeder an, dass wir mehr und mehr parallelisieren. Das ist zwar teilweise eingetreten, aber halt nicht in dem Masse, wie urspruenglich angenommen.

Kleine Schritte zur Zeit.
 
Zuletzt bearbeitet:
Ja stimmt, auch der Verlust bei parallisieren wächst mit der Anzahl der Kerne, deshalb ja auch mein Verweis auf den neuronalen Ansatz!
Dazu müsste natürlich das OS und die Platine dementsprechend entwickelt werden
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten