Backup-Strategien jenseits von Time Machine

mj

Aktives Mitglied
Thread Starter
Dabei seit
19.11.2002
Beiträge
9.092
Reaktionspunkte
3.934
Aufgrund diverser Eigenheiten fällt bei mir Time Machine für Backups komplett durch - proprietäres Backupformat, welches nur mit dem gleichen Tool auf der selben Plattform wiederhergestellt werden kann, zudem nur auf lokale Medien wie z.B. USB-Platten sichert (die halbseidene Unterstützung diverser NAS ist mir bekannt, allerdings viel zu unsicher und somit nicht relevant). Daher will ich davon Abstand nehmen, meine wichtigen Daten einem Tool anzuvertrauen, bei dem ich mich darauf verlassen muss, dass es zu 100% fehlerfrei geschrieben ist und bei der Wiederherstellung aus dem proprietären Container niemals Fehler auftreten und bei dem ein anschließendes manuelles strukturiertes Recovery unmöglich ist (man möge mich korrigieren, falls ich mit dieser letzten Aussage falsch liege). Es mag praktisch sein, um ein privates System zu sichern oder eine Komplettkopie eines lauffähigen Systems anzulegen, aber für geschäftliche Daten ist es aus meiner Sicht ungeeignet. Weiterhin ist es durchaus möglich, dass die Wiederherstellung nicht auf einen Mac erfolgt sondern ein Linux- oder Windows-System, daher scheidet Time Machine für mich komplett aus.

Meine oberste Priorität liegt also darauf, dass die Daten in Reinform und nicht in irgendeinem Containerformat vorliegen müssen. Sie müssen von einem beliebigen System aus auf ein beliebiges anderes System (egal ob Windows, Linux, oder Mac OS X) wiederherstellbar sein, unabhängig von irgendwelchen Programmen (kurz gesagt also mit einem simplen Kopiervorgang). Modifizierte Dateien müssen archiviert werden, mit Datum und Zeitstempel versehen. Mein derzeitiges Backup funktioniert genau so, allerdings liegen alle Daten auf einem Linux-Server und werden nur per Netzwerk adressiert. Zukünftig möchte ich jedoch aus Performancegründen (auch ein 300 MBit WLAN stinkt gegen eine SSD eben an ;)) diverse Dinge direkt auf dem Macbook speichern und daher ein vergleichbares Backup auch mit Mac OS X hinbekommen. Bereits getestet habe ich CCC zeitgesteuert auf eine Samba-Freigabe. Die initiale Übertragung hat zwar super funktioniert, beim erneuten Abgleich (also dem ersten inkrementellen Backup) habe ich jedoch nach zwei Tagen abgebrochen. Die Anzahl der Dateien war wohl zu hoch, die Daten sind nur mit wenigen KB/s durch die Leitung getröpfelt und nach 48h waren noch nicht mal 10% abgeglichen. Ursache war hier eindeutig der Linux-Server, der smbd-Prozess hat 100% CPU-Last erzeugt, vermutlich war er mit der Anzahl der zu prüfenden Dateien überfordert. Heute früh habe ich das gleiche über einen NFS-Mount gestartet, das initiale Backup läuft aktuell aber ob das erste Inkrement funktionieren wird weiß ich frühestens morgen.

Da ich nicht weiß, ob das der Weisheit letzter Schluss ist und ich vor lauter Betriebsblindheit auf meiner Suche nach alternativen Backup-Strategien nicht etwas wichtiges übersehe, richtet sich meine Frage also an die Selbstständigen, Firmeninhaber oder Administratoren unter euch:

  • Wie sichert ihr eure Daten?
  • Wie archiviert ihr?
  • Was ist die Strategie im Fall einer notwendigen Wiederherstellung?
 
Was darf der Spaß den kosten und über welche Datenmengen reden wir?
Und wie viele Generationen müssen abrufbar sein?
Und wie lange darf ein Restore dauern?
Und muss ein Desaster-Fall abbildbar sein, d.h. ein lauffähiger Rechner frisch aus der Taufe gehoben werden können?
 
...

  • Wie sichert ihr eure Daten?
  • Wie archiviert ihr?
  • Was ist die Strategie im Fall einer notwendigen Wiederherstellung?

  • TimeMachine auf lokale FW800 Platten
  • Bildarchive per Aperture auf lokaler FW800 Platte
  • regelmäßiger und bootfähiger HDD Clone per CCC

passt.
 
irgendwie bezweifle ich grad, dass du dich schon tiefer mit der Materie befasst hast, mj.
Schon der Satz "dass die Daten in Reinform und nicht in irgendeinem Containerformat vorliegen müssen" macht keinen Sinn. Jedes professionelle Tool (z.B. HP Data Protektor) packt die Daten in eigene Container, aus dem einfachen Grund, dass du ja nicht nur Dateien sicherst sondern auch Images, Metadaten und blocklevelbackups.

Die Fragen von falkgottschalk bleiben noch offen.
 
  • Gefällt mir
Reaktionen: ProjectBuilder
Da Deduplizierung ein Trend ist, dürfte das mit dem Container-Vermeiden tendenziell schwer werden.
Das mit dem überall lesen wollen auch, da Apple mit seinen Sparseimages etwas im Programm hat, mit dem ein Windows-Rechner so seine liebe Not haben dürfte.
 
Systemneutral. Format- und formatierungsneutral. Inkrementell. Softwareunabhängig.

Wird kompliziert.
 
Systemneutral. Format- und formatierungsneutral. Inkrementell. Softwareunabhängig.

..bliebe eigentlich nur rsnapshot auf eine ExFAT-Platte.
Damit kannst du reine Daten sichern - also eigene Dokumente etc. - Erweiterete Attribute, Berechtigungen etc. gehen dabei aber verloren, eine Sicherung des Betriebssystem ist damit auch nicht machbar.
 
Muss es denn auch noch inkrementell sein?
1. Ich fühle mich auch unwohl mit Containern und mache mein eines Backup mit arRsync, ohne Permissions mitzukopieren.
2. Eine weitere Sicherung MIT Permissions und System habe ich auf einer internen Platte als sofort verfügbares Zweitsystem.
3. Die inkrementelle Sicherung überlasse ich TimeMachine, denn die ist mir nicht so wichtig.
 
Glaub mir, ich hab mich sehr wohl damit befasst. Ich befasse mich beruflich mit solchen Dingen, daher bin ich recht gut informiert. Ein Containerformat ist für mich völlig nutzlos - was will ich mit einem lückenlosen Time Machine Backup wenn der Mac stirbt und ich die Daten auf einem Windows-Laptop oder einem Linux-PC wiederherstellen muss? Genau, Pustekuchen, danke sehr, schön war's. Hinzu kommt die Tatsache, dass man dann dem Hersteller völlig ausgeliefert ist - bei Fehlern in der Software kann es letztlich passieren, dass man auf einem nutzlosen Haufen Daten sitzt - alles schon erlebt, ich spreche hier leider aus Erfahrung. Ein Containerformat ist daher von Haus aus kategorisch ausgeschlossen. Im Übrigen macht des nicht jedes professionelle Tool, in der Linux/UNIX Welt sind Reinformbackups die Norm und Container die krasse Ausnahme.

falkgottschalk:
  • Kosten sollen so niedrig bleiben wie nötig. Was ich bisher an Backup hatte erfüllt meine Vorstellungen davon voll und ganz, so etwas würde ich also gerne wieder unter OS X abbilden. Die Datenmenge selber ist eher klein, ich schätze mal so ca. 100GB am Laptop, wobei die sich täglich ändernde Menge bei wenigen MB pro Tag liegt. Der Rest verbleibt am Server und geht seinen bereits etablierten Backup/Archiv-Weg.
  • Derzeit habe ich ein Reinigungsskript laufen, das alle Dateien älter als 90 Tage entsorgt. Sowas schwebt mir auch hier vor, wobei der Zeitraum nach hinten flexibel ist. Weniger als 90 Tage sollten es aber nicht sein.
  • Die Dauer des Restore ist irrelevant.
  • Nein, das ist nicht nötig. Es handelt sich um ein reines Daten-Backup, das heißt die Daten selber müssen auf einem beliebigen System, egal ob Windows, Linux, Mac OS X, etc. wiederherstellbar sein.

roedert:
rsnapshot nutze ich bereits jetzt am Server sowie in der Firma. Ist ein nützliches Tool und setzt im Hintergrund auf rsync, womit ich den Großteil meines aktuellen Backups anlege.

mex:
Und ja, natürlich muss es inkrementell sein. Deduplizierung ist für mich nicht interessant, da die Menge an Daten recht gering ist. arRsync werd ich mir mal anschauen, danke.
 
Mac OS X ist ein UNIX. tar ist auch vorhanden.
So blöd, dass ich das nicht weiß, bin ich auch nicht ;)

arRsync fällt aus, damit kann ich lediglich Ordner manuell synchron halten und nur eine GUI für rsync. Das ganze sollte allerdings eher vollautomatisch im Hintergrund ablaufen wenn sich das Laptop bei mir daheim im Netzwerk befindet und ruhen, wenn ich unterwegs bin.
 
...na warum dann nicht auch für das Mac nutzen?

Weil es nicht ganz den Anforderungen entspricht, aktuell nutze ich rsnapshot nur für einen kleinen Teil meines Backups. Aber vielleicht muss ich das nochmal von vorne aufrollen und darüber nachdenken, eventuell wäre das ja eine Möglichkeit.
 
Evtl wäre das hier etwas für dich/euch
https://www.macuser.de/forum/f65/haltet-crash-plan-576359/
Damit kannst du systemunabhängig/wechselseitig mac,pc,linux multi sichern/restoren
von/auf x rechner im lan und wlan und weltweit (vpn)
und in der cloud
und das von/auf allen hd,usb,nas....
Und per iphone ipad android... Dir die daten anzeigen lassen
 
Zuletzt bearbeitet:
Also mit NFS sieht das ganze jetzt deutlich besser aus. Eine inkrementeller Durchlauf mit CCC liegt jetzt bei knapp über 30 Minuten, dabei werden geänderte Dateien nach "_CCC Archiv" verschoben. Das ganze automatisiert alle zwei Stunden und schon läuft das Backup, ist systemunabhängig, unabhängig von irgendwelchen Spezialtools oder Herstellern. Und wenn ich hier im Forum lese was für unterschiedlichste Probleme es mit Time Machine gibt fühle ich mich in meiner Meinung darüber durchaus bestärkt.

onebyone: irgendwie sieht das seltsam aus, braucht das Teil unbedingt eine offsite-Location irgendwo anders? Ich blick das nicht, die Beschreibung ist irgendwie sehr uneindeutig.
 
Nee du kaufst zb das backuptool 3$ im monat für unendlichen speicherplatz bei crasplan

Bei a b c rechner zb kannst du wenn du willst
Lokal( im lan vpn)umsonst von rechner a auf rechner b und auf c sichern
Und b auf a ub c
Und c auf a und b
Usw
Und zus kannst du bei einen rechner mit allen seinen platten ( auch netzlaufwerke) in die cloud sichern.
Dabei spielt es keine rolle welches systeme (pc mac linus) auf den rechchner a b c laufen

Lese mal den link kompett durch
Dort sind noch weitere info wie die depuplizierung .. Beschrieben.
 
Was hälst du von Arq und Amazon Glacier?
 
Nichts
Zu teuer ( bei meinem Platzbedarf) > 2TB
Und glacier ist kein backuppgm
 
Bei mir legt TimeMachine die Daten auf der Sicherungsplatte 1:1 so ab wie auf dem Rechner.
Allerdings mehrmals, in Ordnern nach Datum.

Ohne TimeMachine zu starten, lassen sich die Daten 1:1 zurückkopieren, auch auf einen
anderen Rechner, Linus oder Windows --- und ich nutze TimeMachine geschäftlich.
 
Zurück
Oben Unten