Wie zum Teufel rechtfertigt Apple seine Preise?

Ich schrieb „ARM-Prozessoren des aktuellsten Entwicklungsstands“ - natürlich sind die das.
Den Rest hast Du reingedeutet.
Nur ist in den M1-Modellen gar kein dedizierter Prozessor verbaut. Ein ARM-Prozessor aktuellsten Entwicklungsstands wäre demnach z.B. auch der T1 Chip, der ja aber völlig andere Aufgaben erfüllt.

Und ja, so wie im Handy->Smartphone-Beispiel geht Disruption - nur nicht zu Gunsten einer einzigen Firma, gemeint ist immer eine Technologie.

Dass neue Konkurrenz erwächst bezweifle ich nicht. Aber das müssen in einem disruptiven Markt dann eben nicht mehr die jetzigen Platzhirsche sein.
 
Was Du sagst stimmt alles nur bei annähernder Leistungsgleichheit. In dem Moment, wo jemand zum selben Preis einen deutlichen Leistungsvorteil hat, interessiert die Kompatibilität nicht mehr.
Bei Single-Core-Benschmarks hinkt der M1 immer noch hinterher. Die RISC-Architektur bekommt ihre Leistung durch die vielen Cores. Das heißt nicht, dass Apple Weg nicht interessant und die Ergebnisse erstaunlich sind. Sie sind aber nicht das, was die Werbefilme wie am Montag die ganze Wahrheit erzählen.

Hinzukommt, dass der M1 nicht nur eine CPU mit integrierter GPU ist, sondern auch den RAM enthält. Damit wird vieles einfacher und schneller, aber auch unflexibler. Die Flexibilität des IBM-Industriestandards ist aber ein wichtiger Faktor für dessen Verbreitung. Dir Frage für mich ist, ist diese Flexibilität in der Zukunft noch wichtig? Oder reichen uns die hochintegrierten aber nach dem Kauf nicht veränderbaren Systeme zukünftig?
 
Warten wir einfach zwei Jahre ab….
Viel zu kurz.
Überleg mal wie viele Konzerne und Behörden noch Windows 7 oder sogar XP einsetzen.
Sowas dauert deutlich länger...
 
Bei Single-Core-Benschmarks hinkt der M1 immer noch hinterher. Die RISC-Architektur bekommt ihre Leistung durch die vielen Cores. Das heißt nicht, dass Apple Weg nicht interessant und die Ergebnisse erstaunlich sind. Sie sind aber nicht das, was die Werbefilme wie am Montag die ganze Wahrheit erzählen.
Richtig,. Wenn die vielen Cores mit optimierter Softwarer aber genau das abdecken, was der Kunde braucht, dann hat es ein Nur-Chiphersteller wie Intel eben schwer.
Hinzukommt, dass der M1 nicht nur eine CPU mit integrierter GPU ist, sondern auch den RAM enthält. Damit wird vieles einfacher und schneller, aber auch unflexibler. Die Flexibilität des IBM-Industriestandards ist aber ein wichtiger Faktor für dessen Verbreitung. Dir Frage für mich ist, ist diese Flexibilität in der Zukunft noch wichtig? Oder reichen uns die hochintegrierten aber nach dem Kauf nicht veränderbaren Systeme zukünftig?
Das ist genau der Punkt. Wir tun alle so, als ob komponentenbasierte technik der Standard wäre, aber niemand tauscht das Display in seinem TV-Gerät aus, den Sensor in seiner DSLR-Kamera oder den Motor in seinem Auto.
 
  • Gefällt mir
Reaktionen: rs254
Dir Frage für mich ist, ist diese Flexibilität in der Zukunft noch wichtig? Oder reichen uns die hochintegrierten aber nach dem Kauf nicht veränderbaren Systeme zukünftig?
Witzigerweise sehe ich da die Zukunft. Aber in günstigen Systemen. Wenn die Rechenpower zentralisiert wird, dürfen die Clients nicht mehr viel kosten.
 
Viel zu kurz.
Überleg mal wie viele Konzerne und Behörden noch Windows 7 oder sogar XP einsetzen.
Sowas dauert deutlich länger...
Die hatten auch Nokia. und Siemens-Handys. :)
 
  • Gefällt mir
Reaktionen: rs254 und lulesi
Viel zu kurz.
Überleg mal wie viele Konzerne und Behörden noch Windows 7 oder sogar XP einsetzen.
Sowas dauert deutlich länger...
Nenne mir eine Behörde in Deutschland, wo noch mit Windows XP gearbeitet wird. Das ist ja völlig an den Haaren herbeigezogen.
 
  • Gefällt mir
Reaktionen: walfreiheit und Moriarty
Sensor in seiner DSLR

Niemand? Im Grunde existiert das System schon seit vielen Jahren. Das konnte meine RZ67 schon. Auch wenn es hochpreisig ist, Phase One, Mamiya, Leaf, Linhof, Arca Swiss…
Gegen einen modularer TV hätte ich auch nichts.

Beim Computer ist es aber etwas anders. Ein Chipsatz kann RAM bedienen, der zu dem Zeitpunkt aber noch nicht in den Bausteinen erhältlich ist, zwei Jahre später schon. Oder du brauchst die Menge an Massenspeicher beim Kauf nicht, später aber schon. Oder beim Kauf gab es die Menge pro Riegel nicht und du möchtest nicht 20 externe Festplatten haben. Oder mal eben kurz die GPU tauschen. Mein Mac mini 2011 war allein durch die eGPU in den für mich relevanten Aufgaben 10x schneller. Der 2014er war keine Option.
 
Zuletzt bearbeitet:
Richtig,. Wenn die vielen Cores mit optimierter Softwarer aber genau das abdecken, was der Kunde braucht, dann hat es ein Nur-Chiphersteller wie Intel eben schwer.

Wenn. Apples Benchmarks für Affinity und Photoshop sagen nichts aus. Ich nutze nicht nur Photoshop, fürs Stacking nehme ich Helicon, da sehen Affinity und Photoshop kein Land, für RAWs mit Capture One haben die beiden auch das Nachsehen. Und wenn ich viele Bilder komprimieren muss, kommt keines der Tools an JPEGmini ran. Im Umkehrschluss heißt das nichts anderes, als das wir viel Software mit weitaus mehr Potential hätten. Da geben sich viele Spieleentwickler bei der PlayStation mehr Mühe, weil sie eben nur die Architektur und begrenzte Hardwaremöglichkeiten haben.
 
Beim Computer ist es aber etwas anders. Ein Chipsatz kann RAM bedienen, der zu dem Zeitpunkt aber noch nicht in den Bausteinen erhältlich ist, zwei Jahre später schon.
Und jetzt wäre die Frage, warum Du das selbe nicht vom Panel Deines TVs erwartest. Du kaufst ihn z.B. als HD-TV - warum erwartest Du hier nicht, dass Du 2 Jahre später ein 4K-Panel einbauen kannst? Warum erwartest Du von einer Alpha 7 II nicht, dass Du den Sensor einer Alpha 7 IV einbauen kannst?

Das PC-Paradigma mit wechselbaren Komponenten ist die Ausnahme, nicht die Regel. Die Vorstellung, dass so ein Computer generell zu sein hätte ist durch nichts begründet. Im Falle des M1 ist es jetzt so, dass Apple die Leistungssteigerung u.a. dadurch erreicht, dass es eben keine wechselbaren Komponenten gibt, die Daten durch einen langsamen Bus austauschen müssen, sondern sich alles auf einem SoC abspielt, was zu führt, dass die Grafikdaten nichtmal mehr in den Speicher der GPU kopiert werden müssen.

Jetzt nehmen wir mal an dieses Konzept hätte einen prinzipiellen Vorteil von 300% bei gängigen Anwendungen (Beispiel) - welchen Sinn sollte es ergeben jetzt einen Computer mit wechselbaren Komponenten kaufen zu wollen, der ein drittel so viel Leistung hat, man ihn aber in zwei Jahren so aufrüsten kann, so dass er dann nur noch 10% weniger Leistung hat?

Und das ist genau der Punkt: wenn kompatible, wechselbare Systeme nicht mehr mit der Performance von geschlossenen Systemen mithalten können, werden sie zumindest im Consumermarkt Geschichte sein. Das könnte auch nur für verschiedene Anwendungen der Fall sein, so wie es z.B. mit Spielekonsolen der Fall ist.
 
  • Gefällt mir
Reaktionen: rs254 und SirVikon
Wenn. Apples Benchmarks für Affinity und Photoshop sagen nichts aus. Ich nutze nicht nur Photoshop, fürs Stacking nehme ich Helicon, da sehen Affinity und Photoshop kein Land, für RAWs mit Capture One haben die beiden auch das Nachsehen. Und wenn ich viele Bilder komprimieren muss, kommt keines der Tools an JPEGmini ran. Im Umkehrschluss heißt das nichts anderes, als das wir viel Software mit weitaus mehr Potential hätten. Da geben sich viele Spieleentwickler bei der PlayStation mehr Mühe, weil sie eben nur die Architektur und begrenzte Hardwaremöglichkeiten haben.
Verstehe hier das Argument nicht. Capture One „rennt“ auf meinem M1 MacBook Air, Helicon auch. Keine der genannten Apps ist ja in irgend einer Form an ein Intelsystem oder austauschbare Kmponenten gebunden.
 
  • Gefällt mir
Reaktionen: rs254
Verstehe hier das Argument nicht. Capture One „rennt“ auf meinem M1 MacBook Air, Helicon auch. Keine der genannten Apps ist ja in irgend einer Form an ein Intelsystem oder austauschbare Kmponenten gebunden.

Dann lies nochmal. Apple zieht langsame Tools, die schneller sein könnten, als Benchmark heran. Es ist nichts neues, dass Photoshop mit mehr Power etwas schneller wird, aber effizient ist Photoshop nicht, Affinity auch nicht, daher der Vergleich zu anderer Software, die das in einem Bruchteil der Zeit machen können.
 
Und jetzt wäre die Frage, warum Du das selbe nicht vom Panel Deines TVs erwartest. Du kaufst ihn z.B. als HD-TV - warum erwartest Du hier nicht, dass Du 2 Jahre später ein 4K-Panel einbauen kannst? Warum erwartest Du von einer Alpha 7 II nicht, dass Du den Sensor einer Alpha 7 IV einbauen kannst?

Das PC-Paradigma mit wechselbaren Komponenten ist die Ausnahme, nicht die Regel. Die Vorstellung, dass so ein Computer generell zu sein hätte ist durch nichts begründet. Im Falle des M1 ist es jetzt so, dass Apple die Leistungssteigerung u.a. dadurch erreicht, dass es eben keine wechselbaren Komponenten gibt, die Daten durch einen langsamen Bus austauschen müssen, sondern sich alles auf einem SoC abspielt, was zu führt, dass die Grafikdaten nichtmal mehr in den Speicher der GPU kopiert werden müssen.

Jetzt nehmen wir mal an dieses Konzept hätte einen prinzipiellen Vorteil von 300% bei gängigen Anwendungen (Beispiel) - welchen Sinn sollte es ergeben jetzt einen Computer mit wechselbaren Komponenten kaufen zu wollen, der ein drittel so viel Leistung hat, man ihn aber in zwei Jahren so aufrüsten kann, so dass er dann nur noch 10% weniger Leistung hat?

Und das ist genau der Punkt: wenn kompatible, wechselbare Systeme nicht mehr mit der Performance von geschlossenen Systemen mithalten können, werden sie zumindest im Consumermarkt Geschichte sein. Das könnte auch nur für verschiedene Anwendungen der Fall sein, so wie es z.B. mit Spielekonsolen der Fall ist.

Was ist denn bei dir langsam? Der mini M1? Reichen dem Consumer keine 2GB/s+ als SSD? 6K Display? Thunderbolt? 10GbE? WiFi 6? Der Bus ist doch gerade bei Speicher schon ausreichend schnell. Wie viele haben sich gefreut, dass der Computer länger lief, weil man die HDDs durch SSDs tauschen konnte? Viele wussten es nicht, würden es aber mehr Leute wissen, würden auch mehr für wenige Euro kurz aufrüsten. Und ich hatte auch davon gesprochen, dass es teils die Bausteine in der Größe noch nicht gibt oder sie exorbitant teuer sind. Und gerade da hat Apple fleißig die Hände aufgehalten.

Deine Rechnung... Wenn ich heute arbeiten muss, denke ich nicht, ich behalte den alten lahmen Computer, weil in 2 Jahren was schnelleres kommt. Wenn Stand heute eine SSD z.B. 500MB/s schnell ist, geht es nunmal nicht schneller, wenn meine Anschlüsse es aber erlauben, theoretisch auf 3GB/s zu gehen, die aber erst in 2 Jahren erscheinen (von denen ich aber noch gar nichts weiß), kann ich später umrüsten.
Apple hatte auch vorher schon Thunderbolt, die Möglichkeit der eGPU kam erst später. Und meine RX580 kann ich jetzt so einfach kurz tauschen und habe mehr Leistung, ohne einen neuen Computer kaufen zu müssen.

Mit dem TV arbeite ich nicht, aber ich habe ihn in dem Sinne aufgerüstet, dass er nur als Display dient und ein AppleTV dran hängt, das alles macht. Ich hätte auch nichts dagegen, ein 4K Panel einzubauen zu lassen, Plasma gibt es aber nicht mehr.
 
  • Gefällt mir
Reaktionen: MacMac512
Dann lies nochmal. Apple zieht langsame Tools, die schneller sein könnten, als Benchmark heran. Es ist nichts neues, dass Photoshop mit mehr Power etwas schneller wird, aber effizient ist Photoshop nicht, Affinity auch nicht, daher der Vergleich zu anderer Software, die das in einem Bruchteil der Zeit machen können.
Naja, wenn man die Geräte selbst benutzt sind die Benchmarks nicht relevant. Bei mir war es übrigens nicht der M1, der mich an Intel hat zweifeln lassen, sondern bereits das 2018er iPad Pro, bei dem ich mir nicht erklären konnte, wie ich 4K-Filme viel flüssiger als am iMac bearbeiten und in kürzester Zeit rendern konnte, ohne dass das Gerät warm wurde, obwohl es keinen Lüfter hat.

Ich denke die Argumente bzgl. der Performance sind ausgetauscht. :) Mich würde mal interessieren, was Du denkst, wie Intel, Microsft, Dell & Co jetzt reagieren sollen. Einfach ignorieren was Apple tut oder in eine ähnliche Richtung gehen und wenn ja, wie könnten sie das bewerkstelligen?
 
  • Gefällt mir
Reaktionen: rs254
Naja, wenn man die Geräte selbst benutzt sind die Benchmarks nicht relevant. Bei mir war es übrigens nicht der M1, der mich an Intel hat zweifeln lassen, sondern bereits das 2018er iPad Pro, bei dem ich mir nicht erklären konnte, wie ich 4K-Filme viel flüssiger als am iMac bearbeiten und in kürzester Zeit rendern konnte, ohne dass das Gerät warm wurde, obwohl es keinen Lüfter hat.


Ich denke die Argumente bzgl. der Performance sind ausgetauscht. :) Mich würde mal interessieren, was Du denkst, wie Intel, Microsft, Dell & Co jetzt reagieren sollen. Einfach ignorieren was Apple tut oder in eine ähnliche Richtung gehen und wenn ja, wie könnten sie das bewerkstelligen?

Aber mit welchem Programm? Mich reizt das iPad Pro auch, aber Capture One kommt erst nächstes Jahr, Photoshop hat soweit ich weiß noch nicht den Umfang wie auf dem PC/Mac. Milanote gibt es nicht für das iPad, Narrative Select auch nicht. Und das sind eben Tools, die ich ständig nutze.

Was heißt, wie sie reagieren sollen? In meinem Beispiel macht ja viel die Software aus. Die Effizienz ist ja schön und gut, nur wenn ich keine Software dafür habe, nutzt mir all das nichts. Es fängt ja schon bei Inkompatibilitäten innerhalb des Office Paketes auf Windows und Mac an.

Aber die Komponenten haben ja auch Vorteile, ich kann mir das System genau so zusammenbauen, wie ich es brauche. Zuerst haben alle gerufen, tja, mehr als 8GB RAM braucht man nicht, der M1 rennt. Und jetzt sind wir schon bei 64GB...Kann man aber nichtmehr nachrüsten. Aber Apple hätte ja schon früher 64GB RAM und 8GPU RAM bereitstellen und die SSD als RAID laufen lassen können.
 
  • Gefällt mir
Reaktionen: MacMac512
Einfach ignorieren was Apple tut oder in eine ähnliche Richtung gehen und wenn ja, wie könnten sie das bewerkstelligen?
Ignorieren. Was interessiert es denn Intel? Die Leute wechseln nicht weil eine CPU leistungsfähiger ist. Dann gäbe es Intel schon länger nicht mehr und alle würden AMD kaufen.
In den meisten Fällen interessiert das die Leute gar nicht. Man schaut welche Software man benötigt, womit man kompatibel sein muss und auf welchem Systemen das läuft. Davon kauft man dann das günstigste. Im geschäftlichen Umfeld kommt noch der Service dazu.
Z.b. ist ein NBD vor-Ort-Service beim Notebook wichtig.

Apple hat sich schon bei dem Schnittstellen nicht durchgesetzt obwohl sie leistungsstarker waren. Die Kompatibilität war einfach wichtiger.
 
  • Gefällt mir
Reaktionen: MacMac512 und maba_de
Danke für die Eröffnung dieses wichtigen Threads.

Diese Antwort passt in ihrer Aussagekraft ganz gut hier her, denke ich. ;)

Gruß E-pa
12 Jahre später… :iD:

[…] Dir Frage für mich ist, ist diese Flexibilität in der Zukunft noch wichtig? Oder reichen uns die hochintegrierten aber nach dem Kauf nicht veränderbaren Systeme zukünftig?
Privat definitiv.

Nenne mir eine Behörde in Deutschland, wo noch mit Windows XP gearbeitet wird. Das ist ja völlig an den Haaren herbeigezogen.
Ich wette in Berlin wird damit noch gearbeitet.
 
Zurück
Oben Unten