Kaufberatung: M4 PRO oder M3 MAX

bigahuna

Mitglied
Thread Starter
Registriert
29.03.2009
Beiträge
27
Reaktionspunkte
20
Hi zusammen,

ich suche idealerweise nach Erfahrungswerten, da es um eine Anschaffung in nicht geringer Höhe geht, die eine Weile halten soll. Es soll ein neues 16'' Macbook sein.

Zur Wahl stehen aktuell

1. Apple MacBook Pro 16" 2024 M4 Pro 48 B RAM 1 TB SSD 14C CPU 20C GPU
2. Apple MacBook Pro 16" 2023 M3 Max 48 B RAM 1 TB SSD 16C CPU 40C GPU

Beide für fast gleich viel Geld.

Das Gerät soll zu 100% zum Arbeiten verwendet werden. Hauptsächlich php/mysql oder python apps innerhalb von Docker Containern. Teilweise relativ große und umfangreiche Projekte, aber nichts, was eine der beiden Alternativen nicht problemlos schaffen würde. Aber: mehr und mehr kommt das Thema KI auf und es sollen LLMs mit ollama/Language Studio lokal laufen. Und das ist etwas, wo ich auf Erfahrungswerte hoffe. Aktuell habe ich ein Macbook PRO M1 mit 16GB Ram und LLMs lokal sind kaum benutzbar. Für alles andere würde das bestehende Macbook vermutlich noch eine ganze Weile ausreichen.

Jetzt ist halt die Frage, inwieweit die höhere Speicherbandbreite und die zusätzlichen CPU-Cores eine Rolle spielen. Theoretisch natürlich eine sehr große, aber wie sieht es praktisch aus?

Danke für eure Zeit!
Micha
 
GPU.
Schau halt mal nach in wie fern „LLMs mit ollama/Language Studio lokal“ möglicherweise mit GPU laufen können.
Ab dem M4 ist es „eine Hochzeit“ der Performance seitens CPU/GPU betreffs LLM – je nachdem, wie das programmiert worden / und handhabbar ist.

Wenn die Hersteller dieser LLMs die Metal-Performance einbezogen haben oder einbeziehen werden, wäre eine Sicht auf GPU sinnvoll.

edit: Nachtrag
Betreffs LLMs würde ich persönlich auf eher den aktuelleren Chipsatz setzen.
 
damit es flutscht, sind wahrscheinlich beide Modelle zu knapp bemessen, was den RAM angeht. Apple ist ja für seine Minimalausstattung selbst schon auf 16GB hochgegangen und für ollama werden 32GB empfohlen...

Für meinen nächsten Mac bin ich am überlegen, ob die 64GB-Variante bei dem Einstiegspreis noch Sinn macht oder ob es nicht sinnvoller ist, in den sauren Apfel eines weiteren 1k-Upgrades zu beißen, um auf 128GB zu gehen.

Bei den Preisen muss man sich auch fragen, ob es nicht sinnvoll ist, sich einen dedizierten Rechner hinzustellen, der dann meinetwegen auch Linux haben darf - der Preisunterschied ist ja gravierend und ein geeigneter PC ist vielleicht schon durch den Verzicht auf die hier genannten Upgrades finanziert.
 
damit es flutscht, sind wahrscheinlich beide Modelle zu knapp bemessen, was den RAM angeht
Kommt stark auf das Modell an. Von llama gibt es 7 Billion, 13 Billion oder 70B Varianten. Für 7B und 13B reichen vermutlich auch 24GB Ram noch aus. Ebenso deepseek-r1. 7B, 8B, 14B und 32B sollten alle mit 48GB Ram funktionieren. 7B geht sogar mit dem M1 Pro mit 16GB RAM. Wenn auch langsam, da wenig GPU Cores und langsamer Speicher.

Die Frage, die ich mir stelle ist halt, wie viele Tokens/Sekunde am Ende noch rauskommen. Bzw. ob es hier reale Erfahrungen gibt. Auf dem Papier ist der M3 Max für GPU-Tasks (LLMs) um Längen besser: Die Speicherbandbreite ist beim M3 MAX viel höher (400GB/s beim Max vs 270GB/s beim M4 PRO) und er hat doppelt so viele GPU-Cores. Und GPU + Speicherbandbreite ist alles, was für LLMs zählt. CPU Speed ist auf dem Niveau egal. Aber das sind theoretische Werte :)

Danke auf jeden Fall schonmal für eure Antworten!
 
Wenn der Fokus auf Software-Entwicklung/Docker liegt M4 Pro hat etwas bessere Single Core Leistung und ist effizienter.

Hier gehe ich konträr @Difool Meinung
Wenn LLMs eine große Rolle spielen M3 Max ist klar besser, da Speicherbandbreite und GPU Kerne entscheidend sind.

Zukunftssicherheit: KI wird in den nächsten Jahren immer wichtiger. Selbst wenn Apple ML Optimierungen bringt, bleibt Speicherbandbreite eine harte Grenze hier gewinnt der M3 Max.

Meine Empfehlung: Nimm den M3 Max. Für deine Anforderungen (Docker + KI) macht er mehr Sinn, vor allem wenn LLMs langfristig eine Rolle spielen.
 
Zurück
Oben Unten