Apple Event am 27.10.2016

Naja, was wäre der Unterschied? Die D700 ist eine runtergetaktete Tahiti XT mit voller Chipgröße, die M395X ist eine runtergetaktete Tonga XT mit voller Chipgröße. Beim MacPro sind die Grafikkarten vielleicht einen Hauch näher an den normalen Desktop-Taktraten dran, aber wahnsinnig gravierend ist der Unterschied nicht. Jede Grafikkarte im nMP kommt auf etwa 150W TDP (die baugleiche R9 280X nimmt sich ohne Beschränkungen 250W), beim iMac sind es etwa 125W zu 190W.
Im technischen Sinne sind die FirePros im MacPro genauso viel oder wenig "Mobile"-Komponenten wie im iMac.

Es ist auch nicht so, dass Apple bei Mondschein mundgeblasenes Silizium bekommt, mit dem auf einmal alles effizienter wird. Die nehmen was AMD im Regel hat, senken Taktrate und Spannung und geben dem Chip einen Namen den keiner kennt - fertig. :D
Das kann jeder mit Afterburner & Co auch selber machen.

Im iMac wäre der Einsatz einer GTX 1070 durchaus denkbar, da selbst die Desktop-Version ja nur 150W braucht. Wird Apple aber vermutlich nicht machen, Polaris ist viel günstiger.

Dass es "funktioniert" Desktop GPUs - auch nicht runtergetaktete - in ein ziemlich kleines Gehäuse zu verbauen (sogar wenn es mehr oder weniger rund ist und nicht rechteckig wie z.B. ein DAN A4) wissen wir ja ;O)



Und hey - da Apple ja auch bisher nichts dagegen hat wenn die Lüfter unter Last etwas aufdrehen und Komponenten an die 100 Grad warm werden sollte in der Tat einem Einsatz einer Desktop Pascal eigentlich nichts im Weg stehen.
Vom Preis und der geschmälerten Marge mal abgesehen ;)...
 
Naja, was wäre der Unterschied? Die D700 ist eine runtergetaktete Tahiti XT mit voller Chipgröße, die M395X ist eine runtergetaktete Tonga XT mit voller Chipgröße. Beim MacPro sind die Grafikkarten vielleicht einen Hauch näher an den normalen Desktop-Taktraten dran, aber wahnsinnig gravierend ist der Unterschied nicht. Jede Grafikkarte im nMP kommt auf etwa 150W TDP (die baugleiche R9 280X nimmt sich ohne Beschränkungen 250W), beim iMac sind es etwa 125W zu 190W.
Im technischen Sinne sind die FirePros im MacPro genauso viel oder wenig "Mobile"-Komponenten wie im iMac.

Es ist auch nicht so, dass Apple bei Mondschein mundgeblasenes Silizium bekommt, mit dem auf einmal alles effizienter wird. Die nehmen was AMD im Regel hat, senken Taktrate und Spannung und geben dem Chip einen Namen den keiner kennt - fertig. :D
Das kann jeder mit Afterburner & Co auch selber machen.

Im iMac wäre der Einsatz einer GTX 1070 durchaus denkbar, da selbst die Desktop-Version ja nur 150W braucht. Wird Apple aber vermutlich nicht machen, Polaris ist viel günstiger.

Mit Grafikkarten kennst du dich bestens aus, weshalb ich dir hier nicht wiedersprechen werde. Wenn du sagst, das die d700 und die M395X leistungstechnisch sehr ähnlich sind, wird das so sein. Punkt.
Ich kann nur sagen, das 4k-Videobearbeitung auf einem 6-Core Mac Pro 2013 selbst mit der D300 mehr als doppelt so schnell läuft wie auf einem iMac Late 2014 (i7-4790K und M295X). Das sind nachweisbare Ergebnisse aus der Praxis, die natürlich nicht nur aus der GPU-Performance resultieren, sondern auch dem Gesamtpaket. Da der i7-4790k mit deinen 4/8 Kernen aber echt kein langsamer Prozessor ist, muss der real messbare Unterschied auch von der GPU kommen.
Das Apple kein "mundgeblasenes Silizium" verwendet, ist schon klar. Es wird modifiziert, was da ist - gleichermaßen auf Kosten der Lautstärke, der Energieeffizienz und der Leistung. Trotzdem könnte man mit dieser Verfahrensweise Ende 2016 deutlich leistungsstärkere Karten bauen, die dann z.B. im iMac Verwendung finden. Apple wird von dieser Line nicht abweichen - die Frage ist also, was im Rahmen dieser Linie möglich ist.
Was also könnte kommen, @Fl0r!an ?
 
@hr47
Kann es sein, dass Du "Premiere" und nicht "FCX" verwendest..?
 
Ergänzend zu meinem letzten Beitrag: Wenn Apple Techniken wie Crossfire zulassen bzw. einkaufen würde, wären kleinere Dual-GPUs auch 2017 noch eine durchaus konkurrenzfähige Alternative. Unter Windows 10 mit Crossfire erzeugen die D300 ähnliche Benchmark-Ergebnisse wie eine GTX970 in einem cMP.
 
Ergänzend zu meinem letzten Beitrag: Wenn Apple Techniken wie Crossfire zulassen bzw. einkaufen würde, wären kleinere Dual-GPUs auch 2017 noch eine durchaus konkurrenzfähige Alternative. Unter Windows 10 mit Crossfire erzeugen die D300 ähnliche Benchmark-Ergebnisse wie eine GTX970 in einem cMP.

Wozu ich auch bereits geschrieben hatte: Dein cMP bremst die GTX 970 in "Anwendungen" die CFX / SLI unterstützten ein ;O)...
 
Wozu ich auch bereits geschrieben hatte: Dein cMP bremst die GTX 970 in "Anwendungen" die CFX unterstützten ein ;O)...

Ok, der Vergleich mag ein wenig hinken. Worauf ich hinaus will: Dual GPUs, die auch wirklich DUAL-Mode unterstützen, könnten Apple sehr helfen, da man die Apple in der Werbung so wichtigen Parameter, Energieeffizienz, Lautstärke und Leistung eher nach "Apple-Manier" unter einen Hut bringen könnte. Hier würde Apple wohl auch externe Unterstützung brauchen oder einkaufen müssen. Könnte sich aber bezahlt machen...

Anyway: Wird bestimmt nicht am 27.10 kommen. Daher zurück zum eigentlichen Thema:)
 
Ok, der Vergleich mag ein wenig hinken. Worauf ich hinaus will: Dual GPUs, die auch wirklich DUAL-Mode unterstützen, könnten Apple sehr helfen, da man die Apple in der Werbung so wichtigen Parameter, Energieeffizienz, Lautstärke und Leistung eher nach "Apple-Manier" unter einen Hut bringen könnte. Hier würde Apple wohl auch externe Unterstützung brauchen oder einkaufen müssen. Könnte sich aber bezahlt machen...

Die wenigen Apps die Apple noch selbst entwickelt nutzen lediglich eine GPU.
Auch Adobe Apps nutzen zum aktuellen Zeitpunkt nur eine GPU - und diese noch nicht mal wirklich gut ;O)...

Es gibt natürlich Anwendungen - wie Renderer oder DaVinci Resolve etc. - welche erheblich mehr nutzen können was sich dann positiv in der Zeit die zur Berechnung benötigt wird bemerkbar macht.
Frag mal Sedor :D

CFX / SLI wird eigentlich nur für eine Sache benötigt - und hierfür sind Macs nicht gedacht.

Zudem wird diese Sache aktuell immer unwichtiger, außer in Benchmarks ist die Skalierung häufig unglaublich schlecht oder es ist erst gar nicht unterstützt (schau Dir mal die Pacht-Notizen z.B. der Radeon-Treiber an...).
NVDIA unterstützt (außer bei Benchmarks) inzwischen nur noch 2-fach SLI...
 
Die wenigen Apps die Apple noch selbst entwickelt nutzen lediglich eine GPU.
Auch Adobe Apps nutzen zum aktuellen Zeitpunkt nur eine GPU - und diese noch nicht mal wirklich gut ;O)...

Es gibt natürlich Anwendungen - wie Renderer oder DaVinci Resolve etc. - welche erheblich mehr nutzen können was sich dann positiv in der Zeit die zur Berechnung benötigt wird bemerkbar macht.
Frag mal Sedor :D

CFX / SLI wird eigentlich nur für eine Sache benötigt - und hierfür sind Macs nicht gedacht.

Zudem wird diese Sache aktuell immer unwichtiger, außer in Benchmarks ist die Skalierung häufig unglaublich schlecht oder es ist erst gar nicht unterstützt (schau Dir mal die Pacht-Notizen z.B. der Radeon-Treiber an...).
NVDIA unterstützt (außer bei Benchmarks) inzwischen nur noch 2-fach SLI...

Aber Fakt ist doch, das viele grafikintensive Anwendungen unter MacOS deutlich schneller wären, wenn beide GPUs (so vorhanden) unterstützt würden. Apple müsste dafür sorgen, das auch Drittanbieter wieder so programmieren. Und das ginge am einfachsten, wenn es mehr solcher Apple-Rechner auf dem Markt gäbe. Es ist also eine Ereigniskette, die angestossen werden müsste.

Oder man verbaut tatsächlich marktübliche GPUs. Wird das passieren? Never ever...

Sollte ein neuer Mac Pro oder ein vergleichbares Gerät tatsächlich kommen, könnte das jedenfalls ein Schritt in diese Richtung sein. Doch angesichts des vergleichsweise unerschöpflichen IOS-Marktes scheint das noch immer sehr unwahrscheinlich.

Warten wir es also ab:)
 
All das spräche für ein Modulares Gerät! Nicht jeder braucht solch intensiven GPU-Nutzen. Das aber widerspricht allem was Apple so in den letzten Jahren geliefert hat.
 
Mit Grafikkarten kennst du dich bestens aus, weshalb ich dir hier nicht wiedersprechen werde. Wenn du sagst, das die d700 und die M395X leistungstechnisch sehr ähnlich sind, wird das so sein. Punkt.
Ich kann nur sagen, das 4k-Videobearbeitung auf einem 6-Core Mac Pro 2013 selbst mit der D300 mehr als doppelt so schnell läuft wie auf einem iMac Late 2014 (i7-4790K und M295X).

Die alten GCN 1.0-basierten Grafikkarten (HD 7970/D700, und natürlich auch die kleinen Brüder) haben extrem viel Compute-Leistung, weshalb diese Grafikkarten bei der OpenCL-Performance ihren Nvidia-Konkurrenten haushoch überlegen waren. Die GCN1.1-basierten Karten (R9 290X, 390X) haben diese Tradition fortgesetzt, haben leistungsmäßig (TDP bis 300W) aber nicht mehr in den MacPro gepasst (vom iMac mal ganz zu schweigen).

Die jüngeren Grafikkarten haben scheinbar (-> mit den Details kenne ich mich nicht gut aus) eine geänderte Architektur bekommen, der Schwerpunkt wurde nun mehr auf Energieeffizienz und Gaming-Performance gelegt. Als Resultat liegt z.B. die R9 380X in Spielebenchmarks leicht vor der alten HD 7970 / R9 280X, sieht aber bei der Compute-Leistung kein Land: http://www.hardwareluxx.com/index.p...-and-sapphire-radeon-r9-380x-4gb.html?start=8
Deine Beobachtungen in FCPX sind also durchaus plausibel: Die R7 370 dürfte deinen D300 ziemlich genau entsprechen, und die liegt fast gleichauf mit der (Desktop!) R9 380X. Und da du zwei davon hast... ;)

In Apples üblichem Handlungsrahmen gibt es eigentlich nicht viel Spielraum: Polaris 11 für das MBP, Polaris 10 für den iMac. Der MacPro (sollte er denn kommen...) muss als Top-Variante eigentlich eine Vega-GPU kriegen. Die Fury hätte auch gepasst, aber der Zug ist eigentlich abgefahren.
 
@Fl0r!an
Das mit der OpenCL Performance dieser AMD Karten ist in der Tat so - ich kann dies bei meinen GPUs, und auch den Benchmarks die ich z.B. im Grafikkartenthread erfragt hatte, bestätigen.

Welcher Mac schneller bei der Videobearbeitung ist hängt nicht unwesentlich von deren CPU bzw. der Architektur und der verwendeten App ab.
 
Die alten GCN 1.0-basierten Grafikkarten (HD 7970/D700, und natürlich auch die kleinen Brüder) haben extrem viel Compute-Leistung, weshalb diese Grafikkarten bei der OpenCL-Performance ihren Nvidia-Konkurrenten haushoch überlegen waren. Die GCN1.1-basierten Karten (R9 290X, 390X) haben diese Tradition fortgesetzt, haben leistungsmäßig (TDP bis 300W) aber nicht mehr in den MacPro gepasst (vom iMac mal ganz zu schweigen).

Die jüngeren Grafikkarten haben scheinbar (-> mit den Details kenne ich mich nicht gut aus) eine geänderte Architektur bekommen, der Schwerpunkt wurde nun mehr auf Energieeffizienz und Gaming-Performance gelegt. Als Resultat liegt z.B. die R9 380X in Spielebenchmarks leicht vor der alten HD 7970 / R9 280X, sieht aber bei der Compute-Leistung kein Land: http://www.hardwareluxx.com/index.p...-and-sapphire-radeon-r9-380x-4gb.html?start=8
Deine Beobachtungen in FCPX sind also durchaus plausibel: Die R7 370 dürfte deinen D300 ziemlich genau entsprechen, und die liegt fast gleichauf mit der (Desktop!) R9 380X. Und da du zwei davon hast... ;)

In Apples üblichem Handlungsrahmen gibt es eigentlich nicht viel Spielraum: Polaris 11 für das MBP, Polaris 10 für den iMac. Der MacPro (sollte er denn kommen...) muss als Top-Variante eigentlich eine Vega-GPU kriegen. Die Fury hätte auch gepasst, aber der Zug ist eigentlich abgefahren.

Zeigt also, das es "die" Grafikkartenperformance eben nicht gibt, weil es auch hierbei durchaus auf das Anwendungsgebiet ankommt. Deutlich wird das auch bei deinem Vergleich 380X/280X.

Wodurch Apple selbst im selbstauferlegten Handlungsrahmen interessante Möglichkeiten hätte.

Bin mal gespannt, inwieweit das am 27.10 eine Rolle spielen wird.
 
Vega.
Im kommenden Jahr wird Vega alles richten :teeth:...

Eine GPU die übrigens in praktisch allen Bereichen ziemlich gut gewesen wäre (von der etwas zu hohen TDP mal abgesehen) wäre die NANO gewesen.

Hervorragende OpenCL Werte und auch für "Freizeitaktivitäten" ganz ausgezeichnet geeignet.
 
Vielleicht gibt's ja Touch-Screen Macs. Wäre ein "hello again" Effekt ;)
Aber ob's sinnvoll wäre? ;)
 
Ich glaube nicht, dass der Spruch mehr referenziert als dass es mal wieder um den Mac geht und man sich auf ein neues (MBP-)Modell einstellen kann.

Ja. Leider. Die eigene Nostalgica wird mit Füßen getreten. Verdient man ja nix mit...

Lasse mich ja gern eines besseren Belehren, aber allein es fehlt der Glaube.
 
Also ich persönlich habe an diesem Spruch Apples rein gar nichts auszusetzen, weil es zum einen stimmt und zum anderen konsequenterweise auch als logisch betrachtet werden kann oder sollte, dass ein Nachfolger eines Produktes stets besser ist oder zu sein hat als der unmittelbare Vorgänger.

Zumindest sehe ich persönlich das als interessierter Verbraucher so und würde demnach nicht ständig einen Hinweis dahingehend benötigen, aber wir wissen ja, dass Apple sich gerne selbst auf die Schulter tätschelt.

Das heißt aber nicht, dass ich die unentwegte, eigene Verherrlichung und Lobhudelei Apples gutheiße, denn diese ist trotz alledem nervtötend, aber wir wissen ja, dass Apple sich gerne selbst auf die Schulter tätschelt.

Ich beziehe mich hier zum Beispiel auf Apples Augenmerk, ein sauberes Innenleben der Geräte zu präsentieren - und das ist doch der Pingeligkeit oder Perfektion Apples geschuldet, dass ein Innenleben eines iPhones, MB oÄ nun mal so geordnet aussieht, wie es eben aussieht.

Das könnte ein "Reinraum" sein da drinnen, und ich persönlich bekomme das zwar nie zu Gesicht, außer auf ifixit, aber ich weiß eben, oder ich bekomme das Gefühl suggeriert, dass der Hersteller darauf wert legt und gewissenhaft arbeitet oder zu arbeiten scheint. Da sehen andere Geräte deutlich unästhetischer aus.
 
Zuletzt bearbeitet:
Hallo.



Und mit welchem Betriebssystem?
Windows 10? Das wäre allerdings ein Paukenschlag! Und Satya Nadella live auf der Großbildleinwand

steve_jobs_bill_gates_1997_macworld.jpg
 
Zurück
Oben Unten