Iomega 1,5 TB RAID oder Time Capsule?

kristian

Neues Mitglied
Thread Starter
Dabei seit
21.03.2005
Beiträge
6
Reaktionspunkte
0
Ich bin auf der Suche nach einem effektiven, automatisierten Backup-System für ein kleines Büro-Netzwerk mit 6 Macs, einer davon ein PM G4, der als File-Server dient. Wir haben keine guten Erfahrungen mit Deja Vu und einer LaCie-NAS-HD gemacht, und auch Silver Keeper vom G4 auf eine externe HD lässt zu wünschen übrig.
Wer hat Erfahrungen mit der 1,5 TB RAID Standalone-Lösung von iomega (mit Retrospect Light - oder so - als Backup-Tool) oder ist es einfacher, alle Macs auf Leopard aufzurüsten und Time Machine als Backup zu verwenden?
Ich wäre dankbar für Erfahrungswerte.

Beste Grüße,
Kristian
 
Du hast leider nicht genau beschrieben, was das für ein G4 Server ist. Was läuft auf den Clients für ein System?

Prinzipiell würde ich so verfahren:

Einen Server im Netz, dessen Platten per RAID 5 oder ähnliches ausreichend Platz bietet. Auf den würde ich dann ein NFS oder FTP Server für die Clients einrichten.

Entweder du nimmst dafür den G4 oder ein NAS. Aber bitte kein so ein billig NAS, die sind immer so lahm, weil die ne lahme CPU haben. Alternativ würde ich einfach einen PC mit RAID Controller (bitte Hardware RAID) und Linux/BSD nehmen, der nur für das da ist.

Clients:
Sofern sie alle mit OS X laufen würde ich da eine Lösung mit rsync oder REOBack fahren. Ich habe mit beiden Tools schon gute Erfahrungen. Wahrscheinlich würde ich REOBack bevorzugen, da es die Dateien komprimiert und dann zum Fileserver sendet. So gehen die HFS spezifischen Dinge nicht verloren. Aber das würde ich mit beiden testen, welches besser ist.
Anleitungen findest du zu beiden zu hauf im Netz (meistens für Linux laufen, aber auch auf OSX google mal nach rsync os x, reback os x usw.).

Beide können Vollbackups und inkrementelle Backups machen. Muss man eben konfigurieren, siehe Howtos. Die Sicherung muss dann auf den Fileserver gespeichert werden.

Das Backup Tool würde ich auf den Client einfach per Cron Job nachts oder wann auch immer günstig anstoßen.

Die Sicherungen von dem Server musst Du natürlich auch sichern. Würde da verschiedene Wechselfestplatten nehmen und auch einen Cronjob und ein Shellskript schreiben, dass die Backups auf die Wechselplatten schreibt, sobald eine angesteckt wurde. Je nach dem wie sicher es sein sollen eventuell auch andere Medien in Betracht ziehen.

Habe diese Strategie schon oft bei Linux Servern eingesetzt, mit etwas probieren läuft das ganz sicher bei OS X auch. Habe vor time machine meine OS X Backup einfach mit rsync auf eine externe Platte gemacht, hat immer prima geklappt.
 
Hab im Büro nen G5 dual 1.8 als Server, mit 10.5 Server. Damit lässt sich wunderbar jedes freigegebene Volume auf für TM nutzen.
 
Hallo iPerl,
danke für deine Antwort - da habe ich jetzt einiges zu recherchieren! Der G4 (400) dient nur als zentraler Ablageort für Dateien, und eine FileMAker Applikation, die übers Netzwerk von den einzelnen Clients angesteuert wird. Auf allen Rechnern (auch dem Server G4) läuft OS X 10.4.10/11. Ich fürchte, dass der G4 nicht mit Hardware-RAID ausgestattet werden kann - oder doch? Deswegen hatte ich an das exteren RAID-Gerät mit Wechselplatten gedacht. Wenn der G4 doch aufrüstbar ist, welchen Controller würdest Du empfehlen?
Reoback werde ich mal antesten, denn die HFS-Formatierung ist meines Erachtens das Problem bei den anderen Backup-Tools.
Andere dumme Fragen: Was ist ein Cron Job? Schreibe ich ein Shell-Script mit dem Automator?
 
Hallo kristian,

Zunächst mal brauch ich noch ein paar Infos:

Wie wichtig sind die Daten?
Wie oft müssen die gesichert werden?
Wieviel Festplattenkapazität haben die einzelnen Rechner?
Haben alle Rechner GBit LAN?
Wieviele Daten ändern etwa / kommen neu hinzu?
Wie hoch ist Dein Budget?

Ich würde das so einstellen, dass jede Nacht (oder nach Feierabend) ein inkrementelles Backup erstellt werden soll. Am Freitag nach Feierabend (oder am Wochenende) würde ich dann ein Vollbackup machen lassen.

mit dem G4 wirds schwierig. RAID Karten gibts nur für IDE und nur mit 2 Anschlüssen. Ansonsten es SATA PCI Controller ohne RAID, aber auch nur mit 2 Anschlüssen. Klar könnte man ein Software RAID machen, da rate ich Dir aber davon ab, geht auf die CPU und der PCI Bus bremst ordentlich. Wenn der G4 nur ein 100Mbit LAN hat dann wirds richtig langsam.

Bei einem NAS muss man auch etwas tiefer in die Tasche greifen, damit es Geschwindigkeit liefert. Die günstigen haben zwar GBit LAN, liefern aber trotzdem nur so 10-20 MB/s, was recht langsam ist.

Klar ist es bei Backups egal, aber Du musst bedenken, dass Du 6 Rechner hast, die regelmäßig sichern wollen, das kann schonmal länger dauern.

Zu Reoback: Das ist ein Perl-Skript. um das Programm laufen zu lassen, muss man eine Konfigurationsdatei editieren. Ist nicht sehr schwer, Du sagst welche Ordner es sichern soll, welche nicht, wie oft Vollbackups und inkrementelle Backups gemacht werden sollen und wie lange diese aufghoben werden sollen. Danach gibst Du noch den FTP Server ein, auf dem die Backups gesichert werden sollen und Du bist nahezu fertig. Du solltest dann noch sagen, dass die Backups auf dem Client lokal nach dem Transfer auf dem Server wieder gelöscht werden sollen.

Ich habe mit dem Programm gute Erfahrungen gemacht. Es ist echt schnell eingerichtet.

Ein Cron Job ist eine zeitgesteuerte Aufgabe. (Du sagst also wann welches Programm automatisch ausgeführt werden soll). Du musst also auf jedem Rechner Reoback installieren und konfigurieren (eigentlich einmal gut testen und dann kann man das ja nahezu unverändert so kopieren). Auf dem Client richtest Du eine zeitgesteuerte Aufgabe ein, wann dann Reoback gestartet werden soll (Z.B Mo-Fr um 20.00).
Cron ist ein UNIX Daemon. Steuern kann man ihn über Einträge in der Crontab (crontab -e) (gibt jede Menge in Google, ist echt nicht so schwer).

Zu Timemachine: Die inoffizielle Lösung, dass auch ein NAS akzeptiert wird ist nur ein Hack und scheint unzuverlässig zu sein (wenn Backups gelöscht werden). Wie jetzt die Unterstützung von Timemaschine Client-Server bei OS X Server ist, weiß ich nicht, habe grade auf Apples Seiten auch keine Info dazu gefunden. Wäre vielleicht auch noch ne Option.

Denke auch an ein Backup des NAS/Servers.

Andere Tools für Backups die mir noch einfallen PsyncX, rsnapshot.

Wenn Du eines dieser Tools nimmst, hast Du halt den großen Vorteil, dass Du von der OS X Version unabhängig bist, das funktioniert auch noch mit dem nächsten OS X.

Wie bei jeder Backup Strategie: Denke auch an das Testen für den Ernstfall, also wenn Du ein Backup zurückspielen willst, wie geht das, klappt es.
 
Hallo iPerl,

danke für deine ausführlichen Erklärungen.
Hier erstmal die Fakten:
Wir sind ein Architekturbüro, die zu sichernden Daten sind quasi lebenswichtig: CAD-Daten, aus den Anwendungen generierte pdfs; Office-Dokumente, eine FileMaker-basierte Datenbank für Ausschreibungen, Fotos, usw.

Die Daten liegen zentral auf dem G4/400 (grau-weiß, der auch sonst nichts zu tun hat), auf sie kann über das LAN (teilweise über AirPort Express) zugegriffen werden, d.h. eine Datei kann (nicht gleichzeitig) von mehreren Mitarbeitern bearbeitet werden. Das geht ohne FTP-Anmeldung, einfach über SharePoints.

Die einzelnen Arbeitsplatzrechner sind:
PB G4 Titanium mit 30 GB, PB G4 Alu mit 60 GB, MacbookPro mit 90 GB, miniMac und Intel-iMac (bei denen weiß ich die HD-Kapazität nicht) Soweit ich weiß, haben alle Rechner GBit LAN.

Auf den einzelnen Rechnern liegen nur temporäre Projektdaten, Recherche-Downloads oder private Daten der Mitarbeiter - und natürlich die Programme, mit Ausnahme der FileMaker-Datenbank. Das ist die einzige Anwendung, an die man sich als client übers Netz anmelden muss. Die Einzelrechner brauchen eigentlich nur ein wöchentliches Backup, Priorität hat das Server-Backup. Hier wäre - wie du auch vorschlägst - ein tägliches inkrementelles Backup ideal, das hatte immer Deja Vu auf ein LaCie NAS gemacht, bis ich jetzt tatsächlich Daten zurücksichern musste und festgestellt habe, dass durch die FAT-Formatierung einige Dateien nicht mehr zu öffnen waren - oder gar nicht erst gebackupt wurden.

Das Datenvolumen, das täglich geändert oder neu geschrieben wird, liegt bei ca. 2 GB. Das Budget ist nicht groß, max. 600,- € sollten machbar sein.
 
Fuer 600 Euro kriegst du nichts vernuenftiges.

Eine vernuenftige Backupsoftware kostet schon fast soviel. Mit den ganzen selbstgefrickelten Scripts hast du immer dieselben Probleme, wenn sie denn ueberhaupt funktionieren. Ploetzlich sind Dateien defekt oder werden ueberhaupt nicht gesichert, weil irgendjemand alle Sonderzeichen die er auf der Tastatur gefunden hat in den Dateinamen eingebaut hat. Das habe ich alles schon erlebt.

Wenn du nicht irgendwann ohne Daten und mit Schadensersatzforderungen dastehen willst, brauchst du was vernuenftiges. Du kannst dir ja selber ausrechen wieviel Geld du verlierst, wenn ihr einen Tag Arbeit verliert

Mindestens brauchst Du einen Windows-Server, LTO-Laufwerk und eine Backupsoftware (z.B. Backup Exec). Den alten G4 kannst Du IMO gleich entsorgen.

Wenn du wirklich nur 600 Euro ausgeben willst, dann kaufe wenigstens 2 oder 3 externe Festplatten und sichere immer auf diese. Dabei darf immer nur eine Festplatte angeschlossen sein und die anderen legst du am besten in den Tresor oder so. So hast du wenigstens einen Datensatz offsite.
 
Fuer 600 Euro kriegst du nichts vernuenftiges.

Sehe ich auch so. Mehr als zwei billig NAS mit RAID 1 und eine externe Platte ist da nicht drin.

Eine vernuenftige Backupsoftware kostet schon fast soviel. Mit den ganzen selbstgefrickelten Scripts hast du immer dieselben Probleme, wenn sie denn ueberhaupt funktionieren. Ploetzlich sind Dateien defekt oder werden ueberhaupt nicht gesichert, weil irgendjemand alle Sonderzeichen die er auf der Tastatur gefunden hat in den Dateinamen eingebaut hat. Das habe ich alles schon erlebt.
Dem muss ich Dir aber heftig widersprechen. Ich bin im Unix Umfeld tätig und zum sichern benutzen wir da rsync, rsnapshot & co. Das läuft zuverlässig, schon öfters drauf angewiesen gewesen (es sind nicht so wenige Systeme - bei hunderten mag das da wohl auch anders sein, aber bei so 20 - 30 ist das überschaubar).

Übrigens sind das alle fertige Tools (und im Linuxbereich sehr oft verwendet), wie jedes Backup Programm auch muss man die halt erstmal konfigurieren. Natürlich muss man auch dafür sorgen, dass es automatisch ausgeführt wird.

Bei OS X lassen sich wunderbar Sachen mit tar sichern, ohne Sonderzeichenprobleme und so. Ich übertrage so immer meine Dateien, wenn ich was selber backupe oder meinen ganzen Rechner auf einen anderen übernehme. Das läuft zuverlässig (habe z.B. noch nie den Migrationsassistenten benutzt)). Auf *Nix mache ich das seit Jahren genauso.

Wenn du nicht irgendwann ohne Daten und mit Schadensersatzforderungen dastehen willst, brauchst du was vernuenftiges. Du kannst dir ja selber ausrechen wieviel Geld du verlierst, wenn ihr einen Tag Arbeit verliert
Stimme zu.

Mindestens brauchst Du einen Windows-Server, LTO-Laufwerk und eine Backupsoftware (z.B. Backup Exec). Den alten G4 kannst Du IMO gleich entsorgen.
Du hast schion gelesen, dass das alles OS X Rechner sind und KEIN einziger Win Rechner. Back Exec unterstützt laut Homepage aber nur Windows Clients...
Warum brauch ich einen Windows Server? Wir haben hier Linux/BSD Server als Fileserver stehen (Samba/NFS).
Zwecks längere Archivierung habe ich ja schon kurz vermerkt.

Wenn du wirklich nur 600 Euro ausgeben willst, dann kaufe wenigstens 2 oder 3 externe Festplatten und sichere immer auf diese. Dabei darf immer nur eine Festplatte angeschlossen sein und die anderen legst du am besten in den Tresor oder so. So hast du wenigstens einen Datensatz offsite.

Ja so ähnlich hätte ich es gemacht. Wahrscheinlich hätte ich ein günstiges NAS genommen (Mit RAID 1 oder 5, aber das ist schon über dem Limit...) und da die Clients (und der G4) sichern lassen. Am G4 würde ich dann wechselweise normale externe Platten anschließen, die wiederum das NAS übers Netzwerk spiegeln.
 
Dem muss ich Dir aber heftig widersprechen. Ich bin im Unix Umfeld tätig und zum sichern benutzen wir da rsync, rsnapshot & co. Das läuft zuverlässig, schon öfters drauf angewiesen gewesen (es sind nicht so wenige Systeme - bei hunderten mag das da wohl auch anders sein, aber bei so 20 - 30 ist das überschaubar).

Übrigens sind das alle fertige Tools (und im Linuxbereich sehr oft verwendet), wie jedes Backup Programm auch muss man die halt erstmal konfigurieren. Natürlich muss man auch dafür sorgen, dass es automatisch ausgeführt wird.

Linux ist toll, wenn man das Know-How hat. Wir haben auch einige Linux-Server bei uns. Aber finde mal einen Supporter der zu einem vernünftigen Preis deinen Linux-Server supportet.

Auch ist Bacula toll um Backups zu machen aber für den Laien einfach nicht installierbar.

Für Backup Exec und Windows Server gibt es duzende Supporter, die dir das ganze System schnell und problemlos installieren.

IMO ist diese Lösung die billigste und einfachste. Bei uns in der Schweiz kosten gute IT-Supporter 100 Euro die Stunde und aufwärts. Aber der kann nur Windows. Für die Unix-Leute bezahlt man das doppelte. Wenn man jemand in der Firma hat, der sich auskennt sieht die Sache natürlich ganz anderst aus.

Bei OS X lassen sich wunderbar Sachen mit tar sichern, ohne Sonderzeichenprobleme und so. Ich übertrage so immer meine Dateien, wenn ich was selber backupe oder meinen ganzen Rechner auf einen anderen übernehme. Das läuft zuverlässig (habe z.B. noch nie den Migrationsassistenten benutzt)). Auf *Nix mache ich das seit Jahren genauso.

Ich gehe immer davon aus, dass sich die Mitarbeiter auf die dümmste mögliche Weise anstellen. Wenn man auf einem Betriebssystem und auf einem Dateisystem bleibt sind Sonderzeichen vielleicht seltener ein Problem.

Aber ein gutes Backupprogramm sichert auch offene und defekte Dateien. Oft vergessen die Leute über Nacht ihre Dateien zu schliessen oder ähnliches.


Ich sage nicht, dass Windows und Backup Exec besser ist als eine Linux und Bacula Lösung. Aber für dein Laien ist es unter dem Strich einfacher und billiger.

REOBack ist tot. Es wird seit weit über einem Jahr nicht mehr weiterentwickelt und ist kommt auch in keiner Weise an die Sicherheit von Bacula ran. Bacula hat zum Beispiel für jedes Betriebssystem einen eigenen Client, damit auch wirklich alle Dateiinformationen gespeichert werden.
 
Zuletzt bearbeitet:
Zurück
Oben Unten