Super-Computer aus M1-Macs? (Gedankenspiel)

Dann komm zum Thema zurück und reite nicht drauf rum. Unfassbar.
Ich habe schon alles erklärt.
Echt unfassbar, dass Fanboys immer noch auf diese ausgelaugten "Effizienz" Urban Legend weiterreiten wollen.

Ein M1 bringt 360MFlops insgesamt (bei ~50W) : https://openbenchmarking.org/result/2011244-HA-APPLEM1PE98
Schon vor 6 Jahren, brachte der Schnellcomputer Piz Daint 7453 MFlops/Watt auf Nvidia Basis.
https://www.datacenterknowledge.com...-top-500-supercomputers-list-power-efficiency
1646758249450.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Madcat und dg2rbf
Noch einmal der M1 ist ein Apple-spezifisches SOC, das auf ARM Cores (10+6) basiert und ARM-Technologie lizensiert hat.

Der Fujitsu Supercomputer am
RIKEN Center for Computational Science
in Japan
enthält 7,630,848 Cores aus ARM- A64FX 48C 2.2GHz Prozessoren.

Als ob die Wissenschaft auf die Weisheit Apples gewartet hätte?

Ja, genau darum geht es doch:
ARM Prozessoren sind mittlerweile richtig potent und immer noch richtig effizient!
Der von dir genannte Supercomputer ist Wasser auf meine Mühlen:
Auch die M1 Cores sind ja richtig schnelle Arm Prozessoren. (Ja die 4 Effizenz-Kerne werden nicht gebraucht, aber die Hochleistungskerne gehören m Bereich der Arm Prozessoren zu den Besten die man kaufen kann.

Nein, das is Quatsch ² aus Apples Propagandaschmiede.
Die ARM Rechenleistung wird viel effizienter mit nackten ARM cores genützt.

Was sind für dich nackte Arm Cores? Nur der Prozessor? So pauschal kann man das nicht sagen, es kommt auch immer auf den RAM, zusätzliche Chipsätze und den Bus an der alles verbindet. Hier kann ein SoC durchaus Vorteile bieten.

Denen ist das Apple Marketing und der Stromverbrauch egal.

Wie gesagt: Je Größer der Stromverbrauch der Prozessoren, desto größer die benötige Kühlung, desto größer die Kosten (für die Kühlung) und die Betriebskosten.
So egal ist das „den Wissenschaftlern“ sicher auch nicht… :D

Da ist ein M1 im Vergleich zu spezialisierte Nvidia-Grafikprozessoren sehr schwach.
Es käme nur die 6 Hochleistungskerne in Frage, und wenn die "volle Pulle" verwendet werden, ist Schluss mit langen Akkubetrieb,

Das die M1 auch 8 Graphikkerne integriert haben weißt du oder?
Der M1 bringt also seinen Graphikprozessor schon mit.

Ich verweise auf dein Beispiel mit den Fujitsu Supercomputer. Hier ging es ja auch um die Effizenz.
Wenn die Anzahl der Prozessoren nicht reicht, dann baue halt mehr M1 Prozessoren ein.
Wenn deinen Nvidia Karte 10x mehr Strom verbraucht als M1, dann baue ich halt 10 mal so viel M1-Prozessoren ein und bleibe immernoch im selben Stromverbrauchs- und Kühlungsbudget.

Er sprach aber von Video und 3D und nicht von einer Atombombensimulation oder das Knacken komplexer Verschlüsselungen.

Ist letztlich egal, knacken vom komplexen Verschlüsselungen oder Atombombensimulationen sind auch nur „etwas komplexere“ Matrizenberechnungen - genau wie 3D Berechnung. -> Läuft also auch auf dem besseren Graphikkarten (Rechenbeschleuniger ).
 
  • Gefällt mir
Reaktionen: PiaggioX8
Wie gesagt: Je Größer der Stromverbrauch der Prozessoren, desto größer die benötige Kühlung, desto größer die Kosten (für die Kühlung) und die Betriebskosten.
So egal ist das „den Wissenschaftlern“ sicher auch nicht…
Tja. Vernünftig geplante Rechenzentren nutzen die Abwärme zum Heizen z.B. durch Einspeisung in das Fernwärmenetzwerk.
Und große Gebäude haben auch Platz für Solaranlagen.
 
  • Gefällt mir
Reaktionen: pk2061 und dg2rbf
Ich habe schon alles erklärt.
Echt unfassbar, dass Fanboys immer noch auf diese ausgelaugte Schnapsidée weiterreiten wollen.
Fanboy? Argumente ausgegangen? Hier fragt jemand ob er ungenutzte Ressourcen nutzen kann, mehr nicht.
 
  • Gefällt mir
Reaktionen: Scum und WirbelFCM
Tja. Vernünftig geplante Rechenzentren nutzen die Abwärme zum Heizen z.B. durch Einspeisung in das Fernwärmenetzwerk.
Und große Gebäude haben auch Platz für Solaranlagen.

Das stimmt allerdings. Hat aber im Moment leider auch einen Pferdefuß:
Die Abwärme aus normalen luftgekühlten Systemen läßt sich so einfach abgreifen.
- Wenn ich mich recht erinnere, ist die Abluft „zu kalt“ um es direkt für Fernwärme zu verwenden.
Wasserkühlung für die Server ist hier effizienter, braucht aber (im Moment) noch spezielle Serverhardware und Racks - das macht die Maschinen wieder teuerer.

Zusätzlich gibt es natürlich das Problem, das ein RZ die meiste Kühlung im Sommer benötigt und damit die meiste Abwärme im Sommer erzeugt, wenn man gerade eher weniger Heizung braucht.
Ich finde die Idee gut, aber ich glaube es braucht noch was, bis man hier die richtige Lösung gefunden hat.

Solaranlagen auf RZ Gebäuden halte ich auf jeden Fall für ne gute Idee. :D

Ich glaube aber der Einsatz von effizienteren Servern z.B. mit ARM Prozessoren könnte dafür sorgen, das man überhaupt erst gar nicht so viel Energie verbraucht (Im Vergleich zu „normalen“ Servern).
 
  • Gefällt mir
Reaktionen: dg2rbf
Cluster aus Mac Minis oder den Mac Pro »Tonne«
"Cluster" ... Die Bilder stammen aus Server-Housing Anlagen.
Da mietest du einen Mac "in der Cloud" - und da Apples Lizenzvereinbarungen ein virtuelles System untersagen, läuft dein Zeug nunmal auf einem echten Mac. Du kannst da sogar deinen eigenen Mini abgeben, damit die ihn ins gut gekühlte Weinregal stellen und du greifst nur noch aus der Ferne drauf zu.

Also das ist kein Verbund zu einem Mega-Mac. Ich stell mir grad vor wie man 10 so Popel-MacMinis zusammenschließt, damit man einen brauchbaren Rechner dabei rausbekommt :crack:
 
  • Gefällt mir
Reaktionen: RIN67630 und dg2rbf
Auch die M1 Cores sind ja richtig schnelle Arm Prozessoren. (Ja die 4 Effizenz-Kerne werden nicht gebraucht, aber die Hochleistungskerne gehören m Bereich der Arm Prozessoren zu den Besten die man kaufen kann.
Mag sein, aber die bekommt man –ohne den nutzloses Notebook-Ballest des M1– überall, westlich günstiger und genau für die Aufgabe zugeschnitten.
ARM lizensiert seine Technologie zu jeden, der sie kaufen will und hat selbst keine Foundry.
Apple hat nur damit sein Süppchen gekocht, recht gut für die Aufgabe als Notebook-Herz aber keineswegs bahnbrechend in der Supercomputing-Welt.

Brauche ich für meine Schokoladefabrik 5 Tonnen Kakao, kaufe ich nicht 20 Tonnen Pralinen, um den Kakao davon zurückzugewinnen.
 
Warum? liest du hier nicht mit, dass du mantramäßig immer wieder die gleichen widerlegten Paradigmen herunterbetest?
Wo bete ich den hier irgendwelche Mantras runter?
Für kleine SOHO Server durchaus interessant, wenn es dafür auch entsprechende Hardware gäbe. Außerdem kennen wir das Potenzial der M Prozessoren ja noch nicht. Es bleibt ja die nächsten Jahre nicht nur beim M1 und man könnte auch spezielle Varianten für Server entwickeln, wenn Apple Interesse hätte, was sie nicht haben. Widerlegt ist hier auch noch nichts.
 
  • Gefällt mir
Reaktionen: dg2rbf
Außerdem kennen wir das Potenzial der M Prozessoren ja noch nicht.
Hört doch auf, den M1 für alles unmögliches anzuhimmeln !
Es ist eine gelungene Kombination aus energieffiziente Smartphone-Kerne und einige Leistungskerne, erfolgreich zugeschnitten für ein Notebook und gut von einer proprietäre Software verwaltet.
Mehr nicht.
Keineswegs setzt ein M1 Maßstäbe beim Hochleistungscomputing.
 
Es ist eine gelungene Kombination aus energieffiziente Smartphone-Kerne und einige Leistungskerne, erfolgreich zugeschnitten für ein Notebook und gut von einer proprietäre Software verwaltet.
Mehr nicht.
So sehr ich deine anderen Beiträgen zum Thema Supercomputer nachvollziehen kann, ist z.B. das MBP 14" ziemlich brauchbar. Kürzlich ein altes interlacedes Video mit Topaz Video Enhance AI mit einem Hackintosh i9-9900k mit AMD 5700 XT GPU und dem MBP 14" (Standard Modell) in nahezu exakt der gleichen Zeit konvertiert.

War ziemlich verblüfft, da der Hackintosh ziemlich gerauscht hat (der Lüfter der GPU ging auch an), während das MBP zwar ca. 83 °C heiß wurde, aber nicht gerauscht hat und das Gehäuse nicht mal handwarm wurde bei einer (iStat Menus) angerzeigten Leistung von ca. 40 Watt.

Habe nicht gemessen was der Hackintosh gezogen hat, wäre aber erstaunt wenn es unter 250 Watt waren, dürften eher mehr gewesen sein.
 
Machbar ist jeden Blödsinn, nur sinnvoll ist es nicht.
Der Apple M1 ist ein SOC, d.h. es integrierte alle Funktionen eines Notebooks auf einen Chip.
Supercomputern brauchen nur die Rechenleistung davon. Hier liefe die Hälfte des Chipdesigns für Peanuts mit. Das ist blanker Blödsinn !

Es macht mich immer wieder schnmunzeln wenn die Fanboys, geblendet von Apples Propaganda, glauben sie könnten die Wissenschaft mit ihrer geniale Idée beglücken.
Dann erkläre mir mal warum man einen Chip der in Massen millonenfach produziert wird, nicht auch für Supercomputer geeignet sein soll.
Produziert wird das Teil ja eh (vielleicht sogar billiger als spezielle Chips) und man das nun "zweckentfremdet" ist doch wurscht.
Das sehe ich übrigens nicht nur für Apples M1 Chip sondern generell auch für andere Chips.
Ich kann mir also durchhaus vorstellen dasss man SuperComputer auf basis von ARM baut.

Deine Fanboy Unterstelllung zeigt eher welche verklemmte Sicht du hast.

Ich hab mal in jungen Jahren einen kleinen Bulldog zum Stromgenerator umgemodelt.
Da hab ich sogar einen Flutlichtscheinwerfer drauf gebaut um meinem Schwager nachts die Felder beim Dreschen auszuleuchten.
Bin ich jetzt ein Idiot weil ich einen Trekker zweckentfremdet und einer ganz anderen Funktion zugeführt habe?

Vielleicht hat das nur deswegen so gut und einfach geklappt weil ich kein ausgebildeter Ingenieur bin und nicht um zig Ecken denke oder erst mal nur Probleme sehe sondern einfach nur praktisch denke und auch improvisieren kann.

Geht nicht gibts nicht - ist tatsächlich eines meiner Hauptmotive - neben Leben und leben lassen, solange mir keiner auf den Senkel geht.

Ich könnte mir auch vorstellen, dass man in den iMac und MacPRo statt einen ARM-Chip mit mehreren Kernen "einfach" mehrere Prozessssoren einbaut um eine Leistungssteigerung zu erhalten.
bei deutschen Entwicklern, die aber nicht mal eine Corona-app richtig hinbekommen, sehe ich da aber schwarz.
Warum sind denn die Amis in der IT weltführend? Weil die einfach mal machen und dann sehen wir schon.

Ich hab zwar nur noch iPad und Iphone, halte Apples Ökosystem nach wie vor für das beste was es auf dem Markt gibt.
Könnte ich auf einem Mac genauso zocken wie auf einer Dose käme mir niemals ein WIN-Rechner ins Haus. Und Linux schon gar nicht.
Meine ersten 3 Apple habe ich noch in USA gekauft und mitgebracht - einen Apple II, Apple IIc und dann der Macintosh.
Und gerade der Macintosh war seinerzeit eine Revolution und hat Massstäbe bei der Bedienung gesetzt.
Man muss kein Fanboy sein um zu erkennen, das Apple bis heute die IT-Welt mehrmals komplett umgekrempelt hat.
Und in dieser ganzen Zeit habe ich keinen einzigen Apple-User kennengelernt der wie ein Komisskopp denkt und handelt.
Von Lieschen Müller bis hoch zu Konzernen - alles Optimisten, Macher und kreative Leutchen.

Fanboy bin ich nur ein bischen. Hab bis 1990 vom Apple II beginnend alle Modelle gesehen und gehabt (auch beruflich bedingt) und alle Höhen und Tiefen bei Apple mitgemacht.
Apple ist nichts besseres, aber was besonderes. Und der legendäre Ruf von Apple besteht nicht erst seit iPod, iPhone, iPad, iMac.
 
  • Gefällt mir
Reaktionen: M001, WirbelFCM und Madcat
Keineswegs setzt ein M1 Maßstäbe beim Hochleistungscomputing.
Hab ich auch nicht behauptet. Ich habe bewusst keine Zahl dahinter gesetzt. Lass doch mal ein paar Jahre vergehen und sehen wie sich das M Modell entwickelt. Habe auch nicht gesagt, dass ich hier ein Top 500 mit M Prozessoren sehe, aber die haben Potenzial für interessante Anwendungen auch im Server Bereich.
 
  • Gefällt mir
Reaktionen: PiaggioX8
Du willst doch nicht im Ernst dein Hackintosh als Referenz für ein Benchmark deklarieren?
:eek:
Wo genau ist das Problem? Die Werte sind ähnlich wenn ich Windows boote.

Ich vergleiche ein System mit CPU/GP mit TDPs von 95W/225W (mit Wasserkühlung und lautem Lüfter der GPU unter Last) mit einem SoC mit einer TDP von bis zu 46W (wird von iStat Menus auch so angezeigt) der absolut leise unter Vollast ist.
 
Du willst doch nicht im Ernst dein Hackintosh als Referenz für ein Benchmark deklarieren?
:eek:
Warum denn nicht? Was spricht denn dagegen einen Hackintosh mit seinen Parametern (hier i9-9900K mit AMD 5700 XT) als Referenz zu definieren? :noplan:
 
Warum denn nicht? Was spricht denn dagegen einen Hackintosh mit seinen Parametern (hier i9-9900K mit AMD 5700 XT) als Referenz zu definieren? :noplan:
Weil der gar nicht die Treibern hat, die ihn nominal laufen lassen kann.
 
Weil der gar nicht die Treibern hat, die ihn nominal laufen lassen kann.
Wie genau kommst du auf diese Aussage? Die Hardware wurde vor 2 Jahren so zusammengestellt, dass bis auf das Abspielen von Apple-Videos alles läuft. Selbst das könnte ich haben wenn ich den Hackintosh statt als iMac 2019 als iMac Pro laufen lassen würde, aber dann könnte ich die iGPU nicht mehr nutzen.

Die 5700 XT ist Metall-fähig und wird problemlos von Photoshop oder auch Capture One genutzt - höre es leider immer wenn der Lüfter der GPU hochdreht.
Code:
Chipsatz-Modell:    AMD Radeon RX 5700 XT
Typ:    GPU
Bus:    PCIe
PCIe-Lane-Breite:    x16
VRAM (gesamt):    8 GB
Hersteller:    AMD (0x1002)
Geräte-ID:    0x731f
Versions-ID:    0x00c1
ROM-Version:    113-D1990103-O09
Metal-Familie:    Unterstützt, Metal GPUFamily macOS 2
Für das Geld würde ich mir heute sofort einen Mac Studio holen - wenn ich nicht gerne auch mal Windows nutzen müsste/wollte.

Um aber zum Thema zurückzukommen, AS ist leistungsfähig, kocht aber auch nur mit Wasser so dass ich überzeugt bin, dass Intel/AMD da in wenigen Jahren massiv aufholen werden. Viele Minis als Supercomputer zusammenzubauen, sehe ich als wenig sinnvoll an da gerade Apple Silicon SoCs massiv davon profitieren dass die verschiedenen Komponenten (CPUs, GPUs, Speicher) auf einem Chip sind und so viele Prozesse parallel laufen lassen können.

Jetzt viele Minis wiederum parallel zu schalten macht keinen Sinn, da als Supercomputer-Betriebssystem meist Linux genutzt wird und es nahezu unmöglich sein dürfte die Prozesse sinnvoll so zu parallelisieren, dass sie auf den parallelisierten SoCs irgendeinen signifikanten Geschwindigkeitsgewinn erzielen.
 
Zuletzt bearbeitet:
...dass bis auf das Abspielen von Apple-Videos alles läuft.
...und dann willst du DAS als möchtegern-Benchmark zum Verarbeiten von Videos nehmen?
Als ob die Unterstützung von Metal die einzige Voraussetzung zum optimalen Betrieb deiner Videosoftware wäre?
:rolleyes:
 
Zuletzt bearbeitet:
...und dann willst du DAS als möchtegern-Benchmark zum Verarbeiten von Videos nehmen?
Als ob die Unterstützung von Metal die einzige Voraussetzung zum optimalen Betreib deiner Videosoftware wäre?
:rolleyes:
Jetzt verstehe ich weswegen manche deine Beiträge so bewerten wie sie es machen. ;)

Die Apple-Videos werden nicht abgespielt da sie mit DRM versehen sind und OpenCore es via iGPU unter Monterey eben nicht unterstützt.

https://github.com/acidanthera/WhateverGreen/blob/master/Manual/FAQ.Chart.md
Only IGPU-free Mac models allow for full DRM content access given a compatible AMD GPU video decoder
Ansonsten wird die GPU natürlich von Topaz Video Enhance AI voll genutzt (ist natürlich auch auswählbar). Ist aber mein letzter Versuch einer sachlichen Diskussion. ;)
 
Zurück
Oben Unten