Backup Strategie

Meine Meinung/Erfahrung
Hardware bez Sicherung.
kostet Geld
wird alt
kostet Strom
kostet Zeit
ist laut
geht kaputt
wird geklaut
brennt ab
....
besser ist soweit wie möglich darauf verzichten ....
und dann lieber einen(oder X) Service kaufen (dort arbeiten Leute die nichts anderes machen um für die Sicherheit Deiner Daten zu sorgen wahrscheinlich mit der neusten HW)

haste dir aber schön ein paar Worte verklemmt :D

Also ich sichere meine Daten mit dem Service der OecherWolke, diese benutzen den CrashPlan Clienten welcher wunderbar im Hintergrund die Daten weg schaufelt.

Zusätzlich habe ich eine NAS von Synology im Einsatz welche ebenfalls als Backup dient.
 
Leute, sachlich bleiben

Es geht bei diesem Thema doch nur um die Frage, welche Strategie angewandt werden kann, um rel. sicher die Daten zu sichern. Jeder hat seine eigenen Pläne. Manche halten diejenigen mit einer umfangreichen Sicherungskaskade für Datenneurotiker. Das sind sicher diejenigen, die bisher Glück hatten, denen noch nie eine Platte kaputt ging, die noch nie Daten verloren haben. Aber wehe. Irgendwann passiert es doch. Und dann?
Dann fragt man nach einer guten, möglichst automatischen Backup Strategie. So wie ich.

Also, wie womit worauf was und wann sichert Ihr?
 
Alle Macs per timemachine auf die NAS, alle Windows Rechner per ceashplan Client auf die NAS, alle Rechner inkl NAS nochmals online zur oecherwolke und einzelne Macs bekommen noch einen bootbaren Klon auf eine ext. Hdd
 
Vorhanden: Desktop, MBP, NAS, externe Platten.

Desktop und MBP sind über Unison stets synchronisierte Klone.
Desktop wird via TM auf externe Platte gesichert, zusätzlich existiert ein vollständiges, bootbares Backup meines Desktops (allerdings nicht Tagesaktuell, das dient mehr der Rettung o.Ä., die Daten sind ja entweder auf dem TM Laufwerk oder MBP in aktueller Form vorhanden).
NAS (Raid'ed) ist gefüllt mit Mediadaten, das auf die externen Platten gesichert wird (scheduled CCC Task). Die Datenmenge hier ist sehr groß, unterliegt aber kaum Änderungen. Backups finden darum seltener statt.

Außer bei einem Backup befinden sich je Platten mit dem selben Inhalt (Ausnahme Desktop und MBP) nicht zeitgleich am Netz.
Kritische Dokumente finden sich gespiegelt auf zwei Servern der Uni.


Habe festgestellt, dass alles was man mit der Hand anstoßen muss, unzuverlässig ist. Die automatischen Sicherungen beruhigen mich sehr.
Interessant, bei mir ist es nämlich genau anders herum. Ich vertraue nichts automatischem mehr, bei mir geht alles per Hand.
Seit dieser [1] Aktion wird selbst TM überwacht (automatisch lief es eh nie, sondern per Hand alle 1-2 Tage). Unison, das mir meinen Desktop mit dem MBP (und andersrum) über ssh synchronisiert, wenn beide im selben Netzwerk sind, zeigt mir jeweils seinen Bericht an, den ich per Hand abnicke. Hier gab es zwar keine negative Erfahrung bislang, aber die Entscheidung, welche Datei mit welcher überschrieben wird, lege ich doch niemals einer Software in die Hände—da kann mir zu viel passieren.



[1]
TM traue ich übrigens auch nicht mehr über den Weg.
Ich nutze es seit jeher manuell, aber seit einiger Zeit hab ich _immer_ die Console nebenher offen und checke seine Meldungen. Ein mal meinte TM es müsse Platz frei machen, da nur 40GB frei waren, er aber 38GB benötigte (das stand so im Log). Also fing er es an zu löschen und nach jedem gelöschten Backup kam die entsprechende Meldung "...deleted... now x free but y needed...", allerdings war x immer größer als y.
Damals kams mir komisch vor, weshalb er seit Stunden das Backup "vorbereitet", aber nicht endlich mal anfängt. Ein Blick in die Konsole (damals ja noch nicht ständig an) zeigte: er hat bereits alle bis auf die letzten beiden Backups gelöscht, 600GB frei und hätte wohl weiter gemacht, hätte ich nicht hektisch abgebrochen.
Ein neuer Anlauf klappte dann problemlos, aber seitdem gilt für mich: TM nur noch, wenn ich auf dem zweiten Bildschirm seine Meldungen verfolgen kann...
Das Problem trat bislang nie wieder auf.
 
onebuyone schrieb:
Gerha,
Du solltest auch schon auf Antworten reagiern;) -- egal wie
und nicht nur deine vFrage wiederholen

o.k
Du hast recht.
Wollte halt mal ein paar Ideen zusammen kommen lassen und evt. auf mein Umfeld adaptieren.

Rechenzentrum.jpg

jenso schrieb:
...
ZUDEM spiegele ich einmal pro Arbeitstag die Mac-interne Platte per CCC auf die erwähnten externen Platten.
..

diese Idee habe ich auch noch. Von jedem Rechner eine kleine Platte erstellen.
Aber alles in die cloud ist mir etwas unheimlich. Billige kleine Anbieter können eher pleite gehen, was ist dann mit den Daten??

Schiffversenker schrieb:
...
Wichtig ist mir a. nicht rekonstruierbare Daten mehrfach zu sichern
..

ich halte es eher so wie Du, daher mein kleiner Aufwand (s. Skizze)
Auf die NAS sichert TM auf ein begrenztes Kontinent. Zusätzlich gemeinsame Daten und sonstiges Zeugs, wie Musik etc. Auch eine erste Ablage für Fotos.
Auf die DAS lege ich nur Fotos per automatischem Backup aus Aperture beim Import. Die verlinkten Originale liegen auf der HDD des iMac. Zusätzlich habe ich die Fotos auch auf der TC.


Andreasman schrieb:
...
Alle Familienmitglieder speichern ihre Daten grundsätzlich auf einem NAS-Server ...
..
Ich benutze nur automatische Sicherungen.
..

das ist interessant und so sollte es bei mir dann auch laufen. Ist dann noch eine Erziehungsfrage
Ob meine Frau sich daran hält? ;)

Aber so ähnlich hab ich das auch vor.


Onebuyone schrieb:
..
ich nutze eigentlich nur TM und CP
..

Was ist denn CP?
Wobei mir die cloud etwas unheimlich ist, wie gesagt.

Klar kann hardware kaputt gehen, geklaut werden, ist teuer etc.
Aber der Betreiber in der cloud kann pleite gehen ...

Egal, was ist schon sicher? ;)



jenso schrieb:
..
Äh, warum gebe ich meine Piepen wohl für einen Wuala-Account aus?
..

Vielleicht sollte ich mir das doch mal ansehen.
;)



Kaito schrieb:
..

Desktop und MBP sind über Unison stets synchronisierte Klone.
..

Das war bisher auch für mich immer die Frage, wie bekomme ich das hin. Muss mir Unison mal genauer anschauen. Danke für den Tipp. Liegt dort eine lauffähige app zum download bereit?
 
Nicht so richtig. Es ist eigentlich konsolenbasiert und erfordert Konfigurationsarbeit. Für die eigentlich Nutzung existiert eine GUI, allerdings mit leichten Eigenheiten, weil schon etwas älter.
Du bekommst das gleiche, wie neulich von einem User gelesen, aber auch mittels einer Cloud hin, die du auf deinem eigenen NAS betreibst. Kann dir dazu zwar keine Details geben, hörte sich aber nicht groß kompliziert an.
 
Was ist denn CP?
Wobei mir die cloud etwas unheimlich ist, wie gesagt.

Klar kann hardware kaputt gehen, geklaut werden, ist teuer etc.
Aber der Betreiber in der cloud kann pleite gehen ...

Egal, was ist schon sicher? ;)
CP = CrashPlan ---- Lokale/Remote und Cloudsicherung
billig/günstig = nicht schlecht
Pleite ?
schau Dir mal deren Nutzer an
z.B. Adobe, Google, Cisco, Groupon, Bank of Amerika ,Nasa,Sony,SanDisk .... Oecher Wolke..
und wenn die hops gehen dann hast Du immer noch Deine lokalen Daten und lokale/remoten CP Sicherungen ;)
 
Zuletzt bearbeitet:
Natürlich darf man fragen – es handelt sich um „Wuala“, voilà!

Aber es gibt bestimmt noch andere Unternehmen, die nicht bei der NSA in Sold stehen…
Leider weiss man das auch bei Wuala nicht, zumal sich der Dienst inzwischen im Besitz von Seagate befindet.

Das eigentliche Problem bei Wuala liegt aber darin, dass es für Backup-Zwecke nicht geeignet ist, weil Mac-Metadaten nicht vollständig gesichert werden. So gehen beispielsweise Tags bei der Datensicherung verloren.
 
Das mag stimmen, mds,

nur ist mir das vollkommen wurscht: denn, wie ich schon gaaanz weit oben (bei #2 herum) schrieb, ist die Wuala-Sache nur EINE von mehreren Sicherungsmethoden, die ich einsetze.

Dort liegen von mir „nur“ gewisse Ordner/Verzeichnisse mit einigen (vielen) Dateien. Und auf die könnte ich – schlimmstenfalls! – auch mit anderen Rechnern und unter anderen Betriebssystemen zugreifen.
 
Ich sichere alles via Time Machine lokal und via Arq zu Amazon als offsite.
 
Hallo zusammen,

ich hole diesen etwas älteren Thread mal hoch. Vielleicht kann einer von euch Experten mal meine Backupstrategie bewerten:

- Alle Macs sichern per TimeMachine auf eine Synology Diskstation (ohne Raid).

- Dateien, die sich nur auf der Synology Diskstation und nicht zusätzlich lokal auf Macs befinden, werden von der Diskstation per TimeBackup auf eine externe USB Festplatte gesichert.

- Die Diskstation sichert sich selber (nicht die angeschlossene externe Festplatte) mittels des headless clients bei Crashplan.

Somit habe ich alle Dateien drei mal:
Entweder 1) Mac 2) Diskstation 3) Crashplan oder 1) Diskstation 2) Externe Festplatte 3) Crashplan.


Meine größte sorge ist, dass es irgendwie Quatsch sein könnte den Mac nur mittelbar bei Crashplan zu sichern. Sprich: nur das sparsebundle von Timemachine durch die Diskstation bei Crashplan hochzuladen, nicht die Dateien direkt. Was wenn das Timemachinebackup korrupt ist?
 
Meine größte sorge ist, dass es irgendwie Quatsch sein könnte den Mac nur mittelbar bei Crashplan zu sichern. Sprich: nur das sparsebundle von Timemachine durch die Diskstation bei Crashplan hochzuladen, nicht die Dateien direkt. Was wenn das Timemachinebackup korrupt ist?

Wenn man schon 2mal sichert (was ja durchaus sinnvoll ist), sollte man auch 2 unabhängige Backuplösungen nutzen um die Originale zu sichern.
Ein Backup vom Backup (so wie du es machst, das TM-Backup mit CP sichern) ist genau aus deinem genannten Grund nicht so optimal .... wenn das TM-Backup korrupt ist, nützt dir dessen Sicherung auch nichts.

Also lieber direkt den/die Macs auch direkt mit CP sichern und die TM-Backups von der CP-Sicherung des NAS ausschliessen.

CrashPlan bezog sich jetzt auf dein Beispiel ... kann aber auch jede andere Backupsoftware sein.
 
Zurück
Oben Unten