NAS (o.Ä.) gesucht für firmenweite TimeMachine Funktion

Also wenn ihr keine dedizierte RAID-Hardware habt, könnt ihr das auf guter Softwarebasis wie zB ZFS laufen lassen, so vier CPU-Cores sollten es dann schon sein. Aber trotzdem, die billigsten Festplatten, die du verwenden kannst, sind Seagate Ironwolf und die kommen nur mit 3 Jahren Garantie und kosten pro Stück mit 8TB 230 Euro. Da bekommst du eben gerade genug für ca. 64GB Speicherplatz nutzbar, und da ist noch kein Gehäuse oder sonstiges dabei. Ob dein Netzwerk entsprecht schnell ist, um mehrere Clients gleichzeitig mit voller Geschwindigkeit zu versorgen (und mit diesen Festplatten wird das schon von Haus aus eher lahm, die sind auf möglichst viel Kapazität für den Preis ausgelegt, nicht auf Performance)?

Zuletzt frage ich mich dann, wer euch das einrichten wird. Das sind nur meine Gedanken dazu, vielleicht läuft das dann auch alles einwandfrei. Aber eine Garantie gibt es nicht, und wenn das Ding am Ende nur instabil läuft sind das 3000+ Euro gewesen...

/Edit: Also wenn ihr über euer Netzwerk nur so 1-2Gbit/s drüberbringt, dann würde ich solche 8TB-Platten nehmen. Große langsame Festplatten also. Wenn der Server mit 10Gbit/s dranhängt und ihr das ausnutzen könnt, kannst du auch so 25-30 Stück 4TB-Platten dranhängen und die in einem entsprechend großen Storagepool nutzen, um bessere Performance zu erhalten. Viele kleine Festplatten haben eine deutlich höhere Performance, wenn sie richtig in den Storagepool integriert sind.

Aber wie ihr das in eurer Infrastruktur unterbringt und wie gut das am Schluss funktioniert, kann ich natürlich so nicht beurteilen.
 
Zuletzt bearbeitet:
ich sage mal so bis 3K habe ich gerechnet für NAS
gebraucht könnte das was werden. aber eher nicht, wenn dann wirklich 20 rechner sichern wollen und du das netz noch aufrüsten musst.
 
  • Gefällt mir
Reaktionen: wegus
Mit entsprechendem Knowhow könnte sich das Budget ein wenig ausgleichen lassen, man braucht ja für Backups keine konstanten 1Gbit/s pro Client. Das Initialbackup gestaffelt nach und nach nachts anlegen lassen, und gut ist es. Aber wenn der TS bei uns hier im Forum nachfragt, zeigt das schon, dass das Knowhow doch fehlt.
 
man braucht ja für Backups keine konstanten 1Gbit/s pro Client
man weiss auch nicht, wie das netz normal ausgelastet ist. auf fragen kommt ja nix zurück.

ich würde in software auf ner vm anfangen, dann sieht er schon, wohin sich das bewegt. #trybeforebuy
 
  • Gefällt mir
Reaktionen: wegus
Aber wenn der TS bei uns hier im Forum nachfragt, zeigt das schon, dass das Knowhow doch fehlt.

Irgendwo muss man ja fragen - und hier sind die Leute die sich mit Mac's auskennen, oder?! Ich kann auch in der Linux-Umgebung fragen aber das macht dort weniger Sinn da die i.d.R. weniger Ahnung von TimeMachine haben. So `nen Statement ala "da sieht man das das Know How fehlt" halte ich nicht gerade für konstruktiv.

Natürlich halte ich einen zentralen Speicherort für die beste Lösung. Das Bisherige ist halt über die Jahre gewachsen - da wurde noch auf AirPort's gesetzt und so kam das. Durch größeren MA Zuwachs in den letzten Monaten entstehen aber neue Bedürfnisse.

Von daher bin ich mit Eurem Input schon glücklich! Z.B. nur die Benutzerverzeichnisse zu sichern ist `ne gute Möglichkeit um das Initialbackup zu verkürzen und um Platz zu sparen.

man weiss auch nicht, wie das netz normal ausgelastet ist. auf fragen kommt ja nix zurück.

Die Frage habe ich wohl irgendwie übersehen; ich gebe mir Mühe auf alles zu antworten (was Sinn macht). Ich habe allg. geschrieben was zur Verfügung steht. Die normale Auslastung ist nicht so hoch - Office Betrieb halt. Klar gibt es auch mal spitzen aber keine z.B. Grafikagentur die permanent Gigabytes verschieben. So oder so lässt sich an der 1 Gigabit Architektur nicht viel verändern - zumindest nicht für ein TimeMachine Konzept.
 
Zuletzt bearbeitet:
Natürlich halte ich einen zentralen Speicherort für die beste Lösung. Das Bisherige ist halt über die Jahre gewachsen
Das verstehe ich - vergleichbare Probleme habe ich hier aus gewachsenen Strukturen auch. Wäre es nicht eine Option die gewachsenen Strukturen von den Clients auf Server zu verlagern und von dort per NFS oder SMB auf die Macs zu mounten wo nötig?
 
Das verstehe ich - vergleichbare Probleme habe ich hier aus gewachsenen Strukturen auch. Wäre es nicht eine Option die gewachsenen Strukturen von den Clients auf Server zu verlagern und von dort per NFS oder SMB auf die Macs zu mounten wo nötig?

Wie gesagt es *gibt* natürlich div. Shares auf denen die Leute hauptsächlich ihre Sachen speichern (siehe oben) und das wird gesichert. Bearbeitet wird trotzdem öfters lokal und da zeigt es sich, das Verschiedenes dort liegen bleibt oder vergessen wird zu kopieren oder was auch immer. Ich kann den Ansatz verstehen alle Leute dazu zu leiten nur noch im Netzwerk zu speichern, da wir aber fast nur Books haben und auch von unterwegs gearbeitet wird das mit dem immer zentral speichern nur bedingt klappen. Und ja, es gibt VPN etc.. Das würde aber auch ausarten das zu vertiefen. :)
 
  • Gefällt mir
Reaktionen: wegus
Wer richtet dir das neue System denn ein? Das Budget reicht knapp für die allergünstigsten Festplatten ohne irgendwas dazu. Wie konfigurierst du das Storagesystem, welches OS, welches Dateisystem, kannst du NIC-Bonding einrichten um zumindest den Server mit mehr als 1Gbit/s anzubinden, oder gibt es einen Switch mit 10Gbit/s-Ports (oder muss der ins Budget noch dazu?), da kann ich endlos mit dem Fragenkatalog fortsetzen.

Irgendwo muss man ja fragen - und hier sind die Leute die sich mit Mac's auskennen, oder?!

Gut, wir haben jetzt empfohlen, zentral auf einem Dateiserver aufbauend die Clients zu sichern bzw. ihre Homedirectories. Wie machst du jetzt weiter? Ich will darauf hinaus, dass du gerade in Gefahr läufst, ein unbrauchbares System hinzustellen. Falls dann die Performance miserabel ist, was machst du in so einem Fall, das Macuser-Forum um Hilfe bitten?
 
...Leute, denkt doch mal bitte etwas 'out-of-the-box':

Sicher, der erste Reflex ist erst einmal, bei der Nutzeranzahl die große Keule zu zücken d(icke Server und dicke Leitungen) und schon kommen einige hier gleich mit ZFS und Hastenichgesehen um die Ecke - und wer soll das bitte administrieren?! Der Flaschenhals in dem Szenario ist ganz klar der Netzwerkdurchsatz (wenn morgens alle zur gleichen Zeit die Kisten einschalten und TM erst mal loslegt), und natürlich fällt dann erstmal die 10 GB-Klappe und danach kommt gleich das Kostenargument.

Aber: Was spricht denn dagegen, das vorhandene 1 GB-Netz effizienter zu nutzen, indem man das Sicherungsziel dezentralisiert und auf viele kleine Kisten aufteilt! Stellt doch einfach in jedes grössere Büro oder Etage ein mittelgroßes NAS samt Etagenswitch (sollte sowieso vorhanden sein), auf das dann nur 10 Leute sichern - die Dinger lassen sich doch lässig per Webinterface verwalten und bedürfen - als reine TM-Sicherungsziele - kaum der Wartung. Fünf mittlere NAS sollten das locker packen, ausserdem skaliert die Lösung sehr schön und falls eines ausfällt, sind nicht alle davon betroffen. Wenn die Switche im Serverraum alle hübsch ins Rack passen und nicht über einen zentralen Backbone angebunden sind, geht das natürlich auch.

Was die zu sichernden Inhalte betrifft: Garantiert geht es doch nicht nur um Nutzerdaten und -Konfigurationen (die alle samt Library im Homeverzeichnis liegen) sondern auch um Systemkonfigurationen und lokal installierte Software. Der Witz bei TM ist doch gerade, daß man recht fix und ohne nennenswerte Handarbeit wieder einen komplett funktionierenden Rechner hingestellt bekommt.
 
Das Thema ist noch nicht beendet - es lag nur ein paar Tage brach weil ich unterwegs war. Ich poste Updates sobald es was Neues gibt.
 
Zurück
Oben Unten