Macbook Air und Macbook Pro Updates im Store

  • Gefällt mir
Reaktionen: JeanLuc7
Ich finde nicht, dass ein Geekbench-Wert eine Aussage darüber treffen kann, ob ein Gerät zeitgemäß ist oder nicht, dafür muss man schon mehr herholen als nur ein Geekbench-Wert. Ich finde sogar mein Macbook Alu, auf dem diese Zeilen entstehen, ist immer noch zeitgemäß.

Ich glaube ich werde hier missverstanden. Was ich meinte ist, dass Apple mit eigenen Prozessoren lüfterlose Geräte baut, die einen Geekbench von 18.000 erreichen, währenddessen solche, die einen Intel-Prozessor haben lüfterlos nur 7500 erreichen.

Ich stelle also die Frage, ob die Leistung, die *Intel* mit ungekühlten Prozessoren ermöglicht noch zeitgemäß ist in anbetracht dessen, was nachweislich möglich ist. D.h. ich beziehe mich nicht auf ein Gerät, sondern auf die Prozessoren.

Oder anders ausgedrückt: das 12“ MacBook könnte mit dem iPad-Prozessor die Leistung eines MacBookPro haben ohne einen Lüfter zu benötigen. Ich bin mir daher sicher, dass wir in der Richtung noch was sehen werden.
 
  • Gefällt mir
Reaktionen: Madcat und spatiumhominem
4K ist ein weiter, sehr missbrauchter Begriff. Daten von einer Red oder mal eben iPhone 4k Katzenbabyfilme?

Die Diskussion ist unehrlich. Wir vergleichen hier mit einem 12"-MacBook. Da wirst Du garantiert nichts von einer Red drauf schneiden.
Reden wir also von H.264/H.265 (DSLM/GoPro/Drohne, etc.) und da sieht das MacBook kein Land gegen das iPad Pro.
 
  • Gefällt mir
Reaktionen: Madcat und spatiumhominem
Da würde mich dann auch interessieren, wie man diese Daten aufs iPad bekommt und wieder herunter. Da geht es ja nicht um ein paar MB. Macht man das alles über die iCloud?

Mit dem neuen iPadOS so wie am PC auch.
 
  • Gefällt mir
Reaktionen: Madcat und spatiumhominem
Ich stelle also die Frage, ob die Leistung, die *Intel* mit ungekühlten Prozessoren ermöglicht noch zeitgemäß ist in anbetracht dessen, was nachweislich möglich ist. D.h. ich beziehe mich nicht auf ein Gerät, sondern auf die Prozessoren.

Ach so meinst du das. Ja, das kann man schon fragen. Solche Gründe sind es aber, bei denen ich mich frage, wie vergleichbar verschiedene Geekbench-Werte von verschiedenen Prozessoren und OS-Versionen, wirklich sind. Man kann ja Intel einiges nachsagen, sicher aber nicht, dass sie nicht in der Lage sind zeitgemäße Prozessoren zu bauen.
Wie du schon angedeutet hast muss man sich bei der Leistung der iPad Prozessoren fragen: Warum gibt es kein Macbook mit einem A10/A11/A12 Prozessor oder aber auch warum gibt es diese Prozessoren ausschließlich in iPads? Ich denke, den Nachfolger des A12X werden wir vielleicht in einem Macbook sehen in den nächsten Jahren.
 
Mit dem neuen iPadOS so wie am PC auch.
Bis jetzt aber offenbar nicht. Das Dateihandling ist ja seit Ewigkeiten ein Kritikpunkt, da hat maba schon Recht. Bin gespannt, wie effektiv sie das hinbekommen - und ob es dann den iPads mit USB-C vorbehalten bleibt oder auch am Lightning-Port des kleinen 9.7 geht.

Ich stelle also die Frage, ob die Leistung, die *Intel* mit ungekühlten Prozessoren ermöglicht noch zeitgemäß ist in anbetracht dessen, was nachweislich möglich ist.
Es gibt da ein paar physikalische Regeln, über die die Prozessorarchitektur nicht hinauskommt. Bei Dauerleistung entsteht eben auch dauerhaft Abwärme, die abgeführt werden muss. Daran kommen auch ARM-Prozessoren nicht vorbei. Das iPhone besitzt dazu sogar eine Meldung, die uns mitteilt, dass es erst abkühlen muss, ehe es benutzt werden kann. Am Notebook ist mir da ein Lüfter lieber als frühzeitige Drosselung. Unabhängig davon hat Intel durchaus ein Problem - auch AMD baut inzwischen performantere Prozessoren.

Ich denke, den Nachfolger des A12X werden wir vielleicht in einem Macbook sehen in den nächsten Jahren.
Ich bin mir sicher, dass Apple solche Geräte baut und testet. Ob sie dann wirklich auf den Markt kommen, hängt wohl weniger an der Performance, als vielmehr an der Softwareunterstützung. Man schaue mal ins Windows-Lager - da sieht man derzeit, wie schwer sich die Hersteller mit nativen ARM-Portierungen tun. Und ich würde auf so einem Gerät ja keine iPad-Anwednungen sehen wollen - zumal es im Apple-Universum wohl keinen Touchscreen hätte.
 
Ach so meinst du das. Ja, das kann man schon fragen. Solche Gründe sind es aber, bei denen ich mich frage, wie vergleichbar verschiedene Geekbench-Werte von verschiedenen Prozessoren und OS-Versionen, wirklich sind.

Genau dafür wurde Geekbench aber gemacht. Letzten Endes ist das auch weniger kompliziert, als man denkt, weil Geekbench ja bereits Resultate von echten Anwendungen vergleicht. Wenn Gerät 1 das selbe JPG doppelt so schnell komprimiert als Gerät 2 und den selben Film doppelt so schnell rendern kann, dann ist der diesbzgl. Geekbench-Wert doppelt so hoch und das Betriebssystem oder der Prozessor kann einem ja egal sein. :)

Man kann ja Intel einiges nachsagen, sicher aber nicht, dass sie nicht in der Lage sind zeitgemäße Prozessoren zu bauen.

Die vergleichende Einschränkung hier ist eben wie gut sie ohne Lüfter verwenden zu können. Denke da ist Apple im Moment schon vorne.
 
Bis jetzt aber offenbar nicht. Das Dateihandling ist ja seit Ewigkeiten ein Kritikpunkt, da hat maba schon Recht. Bin gespannt, wie effektiv sie das hinbekommen - und ob es dann den iPads mit USB-C vorbehalten bleibt oder auch am Lightning-Port des kleinen 9.7 geht.

Hm – ich habe schon seit Wochen iPad OS auf meinem iPad Pro, für mich ist das Problem schon abgehakt. Aber auch zuvor war es nicht sonderlich problematisch: man musste über die Camera Roll importieren, was zwar ein hin- und her ist, allerdings hatte ich mir dafür einen Shortcurt gebaut, so dass selbst das nur ein Click war.

Es gibt da ein paar physikalische Regeln, über die die Prozessorarchitektur nicht hinauskommt. Bei Dauerleistung entsteht eben auch dauerhaft Abwärme, die abgeführt werden muss.

Apple reizt im Augenblick mit den eigenen Prozessoren und eigenem Temperaturmanagement diese physikalischen Grenzen aber offensichtlich besser aus als Intel. Ob das so bleibt, weiß man natürlich nicht.
 
Mit dem neuen iPadOS so wie am PC auch.
vorausgesetzt, das iPad unterstützt den Codec. Und da gibt es deutliche Unterschiede zum PC/Mac.
Lightroom CC auf dem Mac unterstützt Fuji komprimierte RAWs, ich kann die synchronisieren und auf dem iPad in Lightroom nutzen.
Aber ich kann sie nicht auf dem iPad importieren - denn die Foto.app auf dem iPad unterstützt die RAWs nicht. Selbst die Weitergabe an Lightroom auf dem iPad klappt dann nicht.
 
@JeZe nochmal, keiner will dem iPad Pro die Daseinsberechtigung absprechen. Dass es in bestimmten Konstellationen besser geeignet ist als das MacBook wird niemand bestreiten, aber der Knackpunkt ist der "bestimmte Konstellationen" Teil dieser Aussage. Denn anders als macOS ist iOS/iPadOS extrem eingeschränkt und du kannst nur dann wirklich vom iPad Pro profitieren, wenn du dich exakt auf dem von Apple vorgegebenen Pfad bewegst. Ein gutes Beispiel ist die von @maba_de angesprochene RAW-Unterstützung - was nützt es mir, wenn das iPad Pro meine RAWs 4x so schnell entwickeln kann wie das MacBook wenn Apple meiner spezifischen Kamera die RAW-Unterstützung verweigert und es anders als bei macOS keine offene Schnittstelle gibt für die der Hersteller der Kamera einen entsprechenden Importfilter bereitstellen könnte? Rechenpower ist eben nur die halbe Miete, die andere Hälfte ist eine möglichst universelle Verwendbarkeit. Und genau da sieht es aufgrund des von Apple geschaffenen goldenen Käfigs und der darin von Apple vorgegebenen festen Bewegungsmuster und Pfade beim iPad Pro sehr mau aus. Und mal ganz ehrlich: wie viel Prozent der Bevölkerung schneiden regelmäßig 4K-Videos? Das dürfte ein Bruchteil sein, ich für meinen Teil kenne zum Beispiel niemanden persönlich der überhaupt jemals schon ein Video geschnitten hat :noplan:

Wo ich dir allerdings zu 100% und ohne Widerspruch recht gebe ist die Tatsache, dass Intel einen kräftigen Tritt in den Hintern zwingend benötigt hat. Aufgrund der fehlenden Konkurrenz durch AMD hat sich die Firma in den vergangenen grob 10 Jahren entspannt zurückgelehnt und fröhlich abkassiert. Abgesehen von der Energieeffizienz und der Performance pro Watt hat sich nicht viel getan. Gut, dass AMD jetzt mit Ryzen endlich wieder ein konkurrenzfähiges Produkt am Markt hat - ohne Ryzen hätte sich Intel niemals dazu genötigt gesehen überhastet unfertige 15W TDP Quad-Core CPUs auf den Markt zu werfen. Eine ARM-CPU in einem MacBook halte ich allerdings weiterhin für falsch, nicht nur weil die x86-Kompatibilität in vielen Bereichen unabdingbar ist sondern primär weil ARM-CPUs nur auf dem Papier und in sehr wenigen sehr spezifischen Teilbereichen schnell sind. Insgesamt betrachtet sind sie aber aufgrund ihrer eingeschränkten Architektur bei der Ausführung von Code vergleichsweise langsam und extrem stark vom Compiler abhängig, wie die immer wieder stattfindenden verzweifelten Versuche von Windows 10 auf ARM Jahr für Jahr auf's Neue beweisen. Außerdem sind sie bei vergleichbarer Performance kein bisschen effizienter und benötigen genausoviel Energie wie CPUs von Intel und AMD. Naturgesetze sind nicht verhandelbar.

Und 4K-Videoschnitt ist am Ende des Tages eben doch nicht alles ;)
 
  • Gefällt mir
Reaktionen: Scum, Madcat, JeanLuc7 und eine weitere Person
nicht nur weil die x86-Kompatibilität in vielen Bereichen unabdingbar ist

Welche Bereiche wären das?

weil ARM-CPUs nur auf dem Papier und in sehr wenigen sehr spezifischen Teilbereichen schnell sind

Das ist sicherlich korrekt. Es gibt bessere RISC-Architekturen für Desktops. Leider hat Apple sich aber anscheinend bereits entschieden.
 
Welche Bereiche wären das?
Och, nur solche Banalitäten wie Windows, sämtliche Windows-Software seit grob 1985 (also inkl. Win16 aber ohne Real Mode), sämtliche macOS-Software seit 2007, sämtliche Hypervisor zur Ausführung virtueller Maschinen wie Parallels, VMware, VirtualBox und so weiter ;)

Das Problem mit x86-Emulation auf ARM ist die Komplexität der x86-Architektur, dadurch ist die Emulation eine massive und ohne rohe Rechenpower nicht zu lösende Herausforderung. Anders herum funktioniert es wesentlich besser, da es wesentlich einfacher ist einen RISC-Befehlssatz mittels eines CISC-Befehlssatzes zu emulieren als umgekehrt. Aber selbst das ist eine Herausforderung, wie man an der schwachen Performance von qemu selbst jederzeit testen kann. Deshalb wäre ein ARM-Chip im MacBook auch bei vorhandener x86-Emulation das faktische Ende der x86-Kompatibilität, weil man damit bestenfalls Anwendungen vom Schlage TextEdit ausführen könnte. Außer natürlich der ARM-Chip würde die hundertfache Rechenleistung aktueller x86-Prozessoren bieten, aber das sehe ich beim besten Willen nicht. Aktuelle ARM-Chips erreichen im Optimalfall und bei Ausführung speziell optimierter Software gerade so die Rechenleistung von Intels passiv gekühlten Y-Klasse Prozessoren.

Und dass sich Apple entschieden hat würde ich so nicht sagen. Bisher sind alles nur unbestätigte Gerüchte und wilde Spekulationen, mehr nicht. Ich halte ehrlich gesagt einen Wechsel auf AMDs Ryzen-Prozessoren für wahrscheinlicher als einen Wechsel auf eine ARM-Architektur.
 
  • Gefällt mir
Reaktionen: Scum, Madcat, JeanLuc7 und eine weitere Person
Och, nur solche Banalitäten wie Windows

Wer kauft sich denn ein MacBook wegen Windows? :rolleyes:

sämtliche Hypervisor zur Ausführung virtueller Maschinen

Das ist natürlich Unsinn. So was hat sogar SPARC und das ist nun echt kein x86.

sämtliche macOS-Software seit 2007

macOS-Software läuft erfahrungsgemäß immer dort, wo macOS läuft. Der Wechsel von Motorola (+ IBM) auf Intel hat jetzt auch keine völlige Wüste hinterlassen.

Ich halte ehrlich gesagt einen Wechsel auf AMDs Ryzen-Prozessoren für wahrscheinlicher

Was hätte Apple davon?
 
Wer kauft sich denn ein MacBook wegen Windows?
mehr als du denkst.
Die Möglichkeit, Windows zu installieren, hat den Marktanteil von Apple damals innerhalb kurzer Zeit um mehrere Prozentpunkte nach oben getrieben.
Jeder, der Windows damals auf PowerPCs emuliert hat weint der Zeit keine Träne nach.
 
Wer kauft sich denn ein MacBook wegen Windows? :rolleyes:
Es geht nicht zwingend darum Windows nativ auszuführen, wobei das auch sehr viele machen, sondern um die Virutalisierung von Windows und die möglichst nahtlose Ausführung von Windows-Anwendungen unter macOS. Und das ist gerade im geschäftlichen Umfeld ein nicht zu unterschätzender Vorteil von macOS.

Das ist natürlich Unsinn. So was hat sogar SPARC und das ist nun echt kein x86.
Und was bringt mir Virtualisierung von SPARC auf SPARC wenn ich darauf kein x86 ausführen kann? Das müsste wieder emuliert werden, nicht virtualisiert. Und das ist ein gewaltiger Unterschied.

macOS-Software läuft erfahrungsgemäß immer dort, wo macOS läuft. Der Wechsel von Motorola (+ IBM) auf Intel hat jetzt auch keine völlige Wüste hinterlassen.
Auch macOS-Software läuft nur auf der Architektur, für die sie kompiliert wurde. Versuch doch mal eine macOS-Anwendung von 2004 auf einem Mac von 2019 zum Laufen zu bringen :rolleyes: Und der Wechsel von Motorola und IBM auf x86 hat nur deswegen keine völlige Wüste hinterlassen, weil die Intel-Prozessoren anno 2006/2007 ein Vielfaches der Leistung des PowerPC G4 und G5 boten und eine komplexere Sprache beherrschten als jene. Deshalb war es möglich, mittels Rosetta eine Emulation für PowerPC-Code anzubieten um auch PowerPC-Software auf x86-Prozessoren auszuführen. Die älteren unter uns werden sich allerdings noch daran erinnern wie unglaublich langsam diese Emulation lief und wie froh alle waren, wenn eine Software endlich als native x86-Anwendung auf den Markt kam. Ja, es war machbar. Aber schön ist anders. Und beim der Emulation von x86 auf ARM ist die Performance um ein Vielfaches geringer.

Was hätte Apple davon?
Ein Druckmittel? Mehr Performance pro Watt? Mehr Flexibilität bei der Gestaltung der Produkte? Mehr Auswahlmöglichkeiten?
 
  • Gefällt mir
Reaktionen: Madcat und JeanLuc7
Ich war ziemlich ueberrascht, wie gut Rosetta gelaufen ist. Am Anfang hat man sogar noch WoW in der PPC-Ausfuehrung auf seinem nagelneuen Intel-Mac laufen lassen muessen, und das hat erstaunlich gut funktioniert. Aehnlich wie damals der Uebergang von 68K zu PPC. Das hat auch ziemlich gut funktioniert.

IMHO wuerde Apple sowieso erst dann die Architektur wechseln, wenn es einen spuerbaren Vorteil dadurch gebe. Im Moment gibt es den wohl noch nicht, aber schau'n mer mal, wie das noch weitergeht.
 
  • Gefällt mir
Reaktionen: warnochfrei
Und was bringt mir Virtualisierung von SPARC auf SPARC wenn ich darauf kein x86 ausführen kann? Das müsste wieder emuliert werden

Du hast "VMware, VirtualBox und so weiter" als Beispielanwendungen genannt und die laufen auch auf SPARC. Einem SPARC ist es völlig egal, was du auf ihm in einer VirtualBox installierst. Kernelvirtualisierung ist zwar tatsächlich oft an die Host-CPU gebunden, aber das war nicht deine Frage.

Auch macOS-Software läuft nur auf der Architektur, für die sie kompiliert wurde.

Du nimmst an, dass jede andere Plattform völlig inkompatibel zur jetzigen Intelarchitektur und sämtliche Software nur mit großem Aufwand zu portieren wäre. Ich behaupte, das stimmt nicht. Man wird vielleicht erfahren, wer Recht behalten wird.


Gegen Intel? Brauchen sie doch dann nicht mehr.

Mehr Performance pro Watt?

Das scheint mir eine sehr momentfixierte Zahl zu sein.

Mehr Flexibilität bei der Gestaltung der Produkte? Mehr Auswahlmöglichkeiten?

Was ist denn an "wir streichen Intel-AMD64 und nehmen stattdessen überall AMD-AMD64" flexibel und mehr Auswahl?
 
Eher "und so weiter auf SPARC". QEMU wurde ja schon genannt.
 
@JeZe nochmal, keiner will dem iPad Pro die Daseinsberechtigung absprechen. Dass es in bestimmten Konstellationen besser geeignet ist als das MacBook wird niemand bestreiten, aber der Knackpunkt ist der "bestimmte Konstellationen" Teil dieser Aussage.

Denn anders als macOS ist iOS/iPadOS extrem eingeschränkt und du kannst nur dann wirklich vom iPad Pro profitieren, wenn du dich exakt auf dem von Apple vorgegebenen Pfad bewegst. Ein gutes Beispiel ist die von @maba_de angesprochene RAW-Unterstützung - was nützt es mir, wenn das iPad Pro meine RAWs 4x so schnell entwickeln kann wie das MacBook wenn Apple meiner spezifischen Kamera die RAW-Unterstützung verweigert und es anders als bei macOS keine offene Schnittstelle gibt für die der Hersteller der Kamera einen entsprechenden Importfilter bereitstellen könnte?

Eigentlich ist das genau ein Beispiel, welches deutlich macht, dass man sich nicht auf dem Apple Pfad bewegen muss. :) Denn obwohl „Apple Fotos“ viele RAW-Formate in der Tat nicht kennt, kann man mit diesen Formaten ganz problemlos in Lightroom arbeiten. Dort sind alle RAW-Formate vorhanden, die auch auf dem Desktop zur Verfügung stehen und zwar zur selben Zeit (übrigens liefern weder bei macOS, noch bei iOS oder Windows die hersteller die Import-Filter. Das ist bis auf wenige Ausnahmen Reverse-Engineering der Hersteller der Bearbeitungssoftware. )

Rechenpower ist eben nur die halbe Miete, die andere Hälfte ist eine möglichst universelle Verwendbarkeit.

Was ist „universelle Verwendbarkeit? Dokumente mit der Kamera scannen? Zeichnungen mit dem Stift anfertigen? Formeln mitschreiben? Texterkennung per Stifteingabe? Als Pilot Anflugs- und Flughafenkarten im Cockpit verwenden? Als Musiker Noten auf der Bühne anzeigen? Für all das ist entweder der Formfaktor des MacBooks ungeeignet oder/und die Leistung ist zu schwach.

Kein Problem, trotzdem ein tolles Gerät, aber mit „universeller Verwendbarkeit“ meinen wir ganz oft einfach die Dinge, die man früher klassisch mit dem PC erledigt hat und die in dem Fall nicht so viel Power benötigen.

Und 4K-Videoschnitt ist am Ende des Tages eben doch nicht alles
clip_image001.png


Natürlich nicht, aber es ist stellvertretende eine Anwendung, welche die Leistungsfägkeit eines jeden Gerätes ausreizt, deswegen eignet sie sich zum vergleichen. Du hast aber Recht: wenn ich nur Briefe und Emails in einem Cafe tippen will -warum sollte ich das auf einem Gerät mit Lüfter tun müssen?

Aber wie immer: wir sehen nur den augenblicklich veröffentlichten Ausschnitt dessen, was Apple in der Pipeline hat. Ich bin sicher, da kommt noch was lüfterloses im Mac-Bereich… :)
 
Zurück
Oben Unten