Netzwerk 40 Benutzer / welche Hardware / hohe Netzlast

einie

einie

Aktives Mitglied
Thread Starter
Dabei seit
04.07.2003
Beiträge
801
Reaktionspunkte
0
Moin, ich habe als Auftrag ein Netzwerk mit 40 Rechnern schnell zu machen.
Gegeben ist ein Gigabit Netzwerk, ein 48 Port Switch und ein MacPro mit 4 Kernen und 6 GB Ran. Das Netz ist auf hohen Datendurchsatz angewiesen. Momentan liegt der Datendurchsatz bei ca. 50 MB/s.
Ich habe einen strukturellen Plan aufgestellt, würde aber gerne noch einmal von anderen deren Vorschläge hören. Auch was die Netzwerkstruktur / Aufteilung angeht.
Im Laufe der Woche will ich dann die Strukturen darlegen und diese mit Euch diskutieren.
Lasst von Euch hören.
 
Deine Beschreibung ist ein wenig unklar.

Bei was hast Du 50 MB/s? Von wo nach wo sollen die Daten?

Wenn zwei bis drei Clients gleichzeitig auf den Server zugreifen und der die Daten von einer einzigen Platte holt, sind 50 MB/s pro Client gar nicht so schlecht.
 
weiss ich!! Wie würdest Du es fixer machen. Es ist ein Raid 5 aus 4 Platten die intern 190 MB Durchsatz machen. Spricht der Raidcontroller. Da greifen dummerweise im Mittel 20 Arbeitsplätze drauf zu drauf zu. Es ist immer ein Verzeichnis indem sich hunderte von Unterverzeichnissen befinden. Alleiniger Durchsatz macht 84 MB/s.
 
Äh, 50 MB/s * 20 Clients = 1 GB / s ungefähr. Das kann bei einem Gigabit-Netz nicht sein.

84 MB / s * 8 Bit / Byte = 672 MBit / s . Viel mehr kriegst Du mit einem Gigabit-Netz schon rechnerisch nicht hin -- egal, was Du machst.
 
Da geht es schon los.. Die 50 MB/s liegen an, wenn alle Rechner laufen und einer alleine kopiert. Hier in diesem Fall holt sich ein Rechner vom SERVER die Daten direkt. Im Regelfall haben wir dann aber immer zwischen 3 und 5 MB als Last im Log vom 10.6.8.-er Server. Das geht also eher gemächlich zu. Bei 80 MB/s greift ein Rechner direkt auf den Server zu, alle anderen sind aus.
 
Ich würde annehmen, der Rest der Bandbreite geht für das Protokoll drauf. Nimmt denn der Durchsatz kontinuierlich ab, je mehr Clients verbunden sind?

Du könntest den Server mit 10 GBit anbinden, aber da sollte sich eher jemand äußern, der sowas schon einmal gemacht hat.
 
Hallo ... mit ein bischen mehr Informationen könnte man auch evtl. was vorschlagen und müsste nicht raten ...

1.) Greifen alle 40 Rechner auf den MacPro zu: mit welchen Anwendungen ( Filesharing, SMB oder AFP, Streaming, Virtualisierung, Datenbank, Anmeldung, Web, Print ...) ???
2.) Wie ist der MacPro ans Netzwerk angeschlossen ... mit einem Port oder mit allen beiden (PortTrunking, ChannelBundling ...) ???
3.) Kommunizieren die 40 Rechner auch untereinander oder ist es ein einfacher "Stern"???
4.) Kommunizieren die 40 Rechner gleichzeitig mit dem MacPro oder liegt ein Versatz vor; wenn ja, wie sieht das typische Zugriffsprofil aus ???
5.) Hat der Switch eine performante Backplane die auch wirklich 48 gleichzeitige GBit-Verbindungen switchen kann ???
6.) Falls die Clients unterschiedliche Protokolle fahren, ist dies im Switch berücksichtigt und konfiguriert (Stichwort Quality-of-Service etc.) ???
7.) Was für ein MacPro ist es und mit welchem OS ... ???
8.) ... ?

- Wenn alle 40 Rechner auf den MacPro zugreifen wird sicherlich der schmale RAM einen Flaschenhals bilden; Ein Prozessor mit 4 Kernen ist auch nicht gerade "State of the Art" bei 40 Klienten ;-)
- Auf Netzwerkebene wäre eine Kaskadierung von Switchen evtl. eine Möglichkeit (evtl. auch über FC- oder 10Gbit/s-Uplinks falls Geld keine Rolle spielt) ...
- Für Web-Anwendungen (Surfen, Intranet ...) gibt es Proxies und Load-Balancer ...
- Für Filesharing kann man mehrere NAS als virtuelle Laufwerke kaskadieren und "Load-Balancen", so dass bestimmte User/Rechner auf dedizierten NAS landen (und damit eine hohe Performance erhalten) aber logisch immer nur ein Laufwerk sehen ...
- Bei Virtualisierung kann man deutliche Performancesprünge feststellen, wenn man die Appliances auf NFS oder iSCSI betreibt ...

Also ... lass mal hören und dann stellen wir auch das raten ein ;-)

VG Frank
 
als erstes musst du erstmal den ganzen traffic managen können, bei der anzahl clients auf einen server, muss da mächtig busbreite her um die zugriffe zu können zudem brauchst du min. 2 teamed 1GB interfaces (also total 4) um überhaupt in solche regionen kommen zu können ... aber ich würde hier eher auf nen grosses raid im NAS (mit richtig power, so ab qnap 1079 pro mit den 2x 10GB interfaces) zurückgreifen ...

was ist denn der kostenspielraum den du hast?

Ich würde annehmen, der Rest der Bandbreite geht für das Protokoll drauf. Nimmt denn der Durchsatz kontinuierlich ab, je mehr Clients verbunden sind?

Du könntest den Server mit 10 GBit anbinden, aber da sollte sich eher jemand äußern, der sowas schon einmal gemacht hat.

das ist generell die regel - server, NAS etc höher anzuschliessen als die clients, sonst kotzt das netz sowieso nur ...
 
Brainstormingmässig wollte ich also erst beginnen. Geht aber gerade in die andere Richtung. Seien wir also produktiv.
OK : Der Rechner, wie gesagt hat 10.6.8. Die Hauptlast ist Filesharing via AFP. Alle 40 Rechner greifen auf mehrere Datenverzeichnisse zu, die aber alle auf dem beschriebenen Raid liegen. Der Rechner ist ein drei Jahre alter Mac Pro mit einem 4 Kern Prozessor mit 6 GB Ran.
Die NICs sind einzeln angebunden. Eine ist für den externen Anschluss an den Backupserver, der andere hängt direkt am Switch. Am Switch ist kein Channeling /Trunking oder ähnliches eingerichtet.
Die Rechner greifen sternförmig auf den Server zu. Die Software greift peu à peu auf den Server zu. Nur beim erstmaligen Holen von Dateien werden 400 MB geholt. Dann sukzessive wieder zurückgeschrieben und in gemeinsam genutzte Dateien geschrieben. Die gleichen dann wieder ab etc....dadurch kommt die hohe Netzlast, die es zu bewältigen gilt.
 
hier eher auf nen grosses raid im NAS (mit richtig power, so ab qnap 1079 pro mit den 2x 10GB interfaces) zurückgreifen ...

was ist denn der kostenspielraum den du hast?

Ich plane mit 15 T€. Das sollte man mal schauen. Die QNAS hatte ich als kleinere Version auch schon einmal den Kunden angeboten. Da finde ich es schön, dass die auf breitere Akzeptanz stösst.

das ist generell die regel - server, NAS etc höher anzuschliessen als die clients, sonst kotzt das netz sowieso nur ...[/QUOTE]
 
Noch kurz eine "blöde" Frage: 10.6.8 Server oder das normale OS ?

Für eine reine Filesharing-Anwendung würde ich keinen MacPro "verschwenden". 2-3 ordentliche NAS und die Verzeichnisse darauf verteilen und die NAS per Porttrunking an einen performanten Switch ... das ergibt eine Roh-Bandbreite von 4-6 Gbit/s oder ca. 120 MB/s echten Datendurchsatz pro NAS. Den MacPro würde ich dann nurnoch als Backup-Server oder Relais zum Backup-Server verwenden. Außerdem würde eine Kostenkalkulation klar für eine NAS-Lösung sprechen.
Die Investitionskosten wären bei ca. 3.000,- Euro und alleine durch die gesparten Stromkosten in 2 Jahren (geschätzt) wieder drin ;-)

VG Frank
 
hallo,


einfach kaufen würde ich gar nichts. Viele Firmen stellen Geräte für eine evaluierung.
Um das Netz wirklich zu beschleunigen, solltest Du etwas weiter denken. Die zu erwartenden Durchsätze werden sicherlich nicht weniger.

und 15.k € sind eine Summe, die gut angelegt sein soll.

Mein Tip wäre also der, dass Du den 48 Port Gbit Switch durch einen neuen ersetzt, der 2 oder auch 4 10Gbit Uplink Ports hat.

Da das Raid in dem Mac Pro der limmitierende Faktor ist, solltest Du diesen, sofern dort wirklich noch andere Dienste laufen, als reinen Server nutzen.
Kaufe dann ein NAS, welches auch noch in ein paar Jahren skaliert.
Das NAS sollte auf jeden Fall 2/4 10GBit LAN Anschlüsse habe, die dann wiederum auf dem Switch laufen.
Somit kannst Du die 10Gbit "gescheit" auf alle 48 1gbit Ports verteilen.
Alles andere ist Quatsch !

_xymos.
 
Zurück
Oben Unten