Diskussion zu "Automatische Backups und Syncs unter OS X"

Hmmm habt ihr euch alle ausgeklinkt aus dem Thema ?

egal ich Frage trotzdem weiter ;-)
wären einige von euch bereit einmal Laufzeiten zu Posten ?
Konkret würde mich interessieren wie lange bei euch das Script für einen System-Clone benötigt. Schön wären folgende daten HDD Größe, Füllgrad,Dateianzahl und Dauer.

LG Worf
 
kann ich so pauschal nicht sagen. aber ein clonen mit carbon copy cloner ist nach meinem gefühl schneller...
 
worf schrieb:
eines ist mir gerade noch aufgefallen.
Die logdateien ins Zielverzeichnis zu legen ist zumindest mit der Option --delete ziemlich ungeschickt ;-)
Jetzt wo du's sagst :p. Muss das bei Gelegenheit mal ändern, zum Glück kein kritischer Fehler...

Konkret würde mich interessieren wie lange bei euch das Script für einen System-Clone benötigt. Schön wären folgende daten HDD Größe, Füllgrad,Dateianzahl und Dauer.
Warum probierst du es nicht einfach aus (nicht böse gemeint ;))? Das hängt von so vielen Faktoren ab und ausserdem muss das Backup ja nur einmal vollständig angelegt werden, danach werden nur noch geänderte Daten übertragen - was ja einer der springenden Punkte bei rsync ist.
 
sheep schrieb:
ausserdem muss das Backup ja nur einmal vollständig angelegt werden, danach werden nur noch geänderte Daten übertragen - was ja einer der springenden Punkte bei rsync ist.

Das scheint nach meinen Tests die ich schon gemacht habe aber kaum einen
Unterschied zu machen.

Subjektiv dauern der initiale Clone und nachfolgende annähernd gleich lang.
Obwohl nur ein paar Files sich geändert haben dürften.

LG Worf
 
@sheep (or anybody else):
ich habe nicht alles durchgelesen - aber einiges und das Thema durchsucht. Trotzdem ist bei mir noch eine Frage offen geblieben:

Kann man die jeweiligen Backups auch während des laufenden Betriebes problemlos durchführen?

Als ich einmal ein Backup auf eine DVD gebrannt habe, wurde der Vorgang abgebrochen und die Fehlermeldung besagte, dass min. eine Datei während des Vorgang verändert wurde.

Danke schon mal und vielen Dank für das super Tut.!
 
mactie schrieb:
Kann man die jeweiligen Backups auch während des laufenden Betriebes problemlos durchführen?

Als ich einmal ein Backup auf eine DVD gebrannt habe, wurde der Vorgang abgebrochen und die Fehlermeldung besagte, dass min. eine Datei während des Vorgang verändert wurde.
Ich habe auch die Erfahrung gemacht, dass der Datenfluss beim Brennen eine recht empfindliche Sache ist. DVDs und CDs sind u.a. deshalb - wie schon im Howto erwähnt - nicht für diese Art der Sicherung geeignet. Im Netzwerk oder mit einer Firewire-Festplatte bspw. gibt es solche Probleme dagegen nicht, da kannst du unbesorgt Daten während der Sicherung ändern, das sollte nie einen Abbruch zur Folge haben.

Überhaupt ist das Backupen mit dieser Methode im laufenden Betrieb vollkommen unproblematisch, der einzige Nebeneffekt ist ein gewisser Leistungsabfall, daher sollte man sich vielleicht überlegen, ob man die Sicherung verschieben möchte, wenn man gerade die volle Leistung des Rechners benötigt.
 
Danke sheep für die superschnelle und kompetente Antwort. Dann brauche ich mich ja nur noch für eine ext. HDD entscheiden und dann kann der Spaß losgehen. Super!

Soetwas habe ich wirklich gesucht. Ich werde wohl auch mehrere Cronjobs laufen lassen, um die Daten immer in verschiedenen Abständen zu sichern (wie Du).

Ach ja, noch was: wenn ich mich recht erinnere, ist das partionieren einer ext. HDD nicht so "problematisch" wie bei einer Internen, oder? Das heißt ich könnte eine Partition nutzen, um das komplette System zu clonen und eine andere Partition, um z.B. mein Home-Verz., Dokument-Verz. usw regelmässig zu backuppen?
 
Hallo miteinander und allen ein frohes neues,

hat denn keiner eine Idee warum es bei mr trotz gepatchtem rsync zu diesen Abbrüchen kommt ?

LG Worf
 
mactie schrieb:
Ach ja, noch was: wenn ich mich recht erinnere, ist das partionieren einer ext. HDD nicht so "problematisch" wie bei einer Internen, oder? Das heißt ich könnte eine Partition nutzen, um das komplette System zu clonen und eine andere Partition, um z.B. mein Home-Verz., Dokument-Verz. usw regelmässig zu backuppen?
Kannst du bedenkenlos machen, habe selber eine FW-Platte mit zwei Partitionen - eine für Daten, die andere für das System.
 
Hat denn hierzu wirklich keiner eine Idee ??

worf schrieb:
Hallo miteinander,

hmm habe heute mal das Script für einen bootbaren Systemclone laufen lassen.
Und zwar mit der gepatchten Version von rsync.

Nachdem er die Fileliste generiert hat hat er ca. 3GB Daten kopiert dabei brachte
er gelegentlich Fehlermeldungen der Art failed to set time um dann schliesslich mit der folgenden Meldung abzubrechen.

hat einer von euch eine Idee was das sein könnte?
Ach ja das ganze lief auf einem PMG5 unter 10.4.3 mit einer ext. FW Platte als Ziel

Code:
rsync: failed to set times for real file of "/Volumes/BACKUP_PM/Applications/Adobe Reader 7.0/Adobe Reader 7.0.app/Contents/Plug-ins/ImageViewer.acroplugin/._ImageViewer": No such file or directory (2)
rsync: failed to set times for real file of "/Volumes/BACKUP_PM/Applications/Adobe Reader 7.0/Adobe Reader 7.0.app/Contents/Plug-ins/ImageViewer.acroplugin/Frameworks/AdobeSVGCore.framework/._AdobeSVGCore": No such file or directory (2)
Invalid checksum length 2037608968
rsync error: protocol incompatibility (code 2) at sender.c(59)
rsync: writefd_unbuffered failed to write 69 bytes: phase "unknown" [generator]: Broken pipe (32)
rsync error: error in rsync protocol data stream (code 12) at io.c(909)
      651.94 real        51.66 user       156.43 sys
No mount point for /Volumes/BACKUP_PM/System/Library/CoreServices
Can't determine mount point of '/Volumes/BACKUP_PM/System/Library/CoreServices' and ''


LG Worf
 
sheep schrieb:
Kannst du bedenkenlos machen, habe selber eine FW-Platte mit zwei Partitionen - eine für Daten, die andere für das System.
@sheep (natürlich auch jeder andere, der Bescheid weiß)
Ich hätte da noch eine letzte, etwas spezielle Frage:

Morgen bekomme ich meine IceCube FireWire / USB2 - 200GB - 7200rpm / 8MB (Samsung).
Ich hatte ja schon gefragt, wie das mit 2 Partionen ist. Nun ist meine Frage, wie es denn mit 3 oder 4 Partitionen ist? Ich brauche auch eigentlich nicht so viel Platz. Meine 80GB im Mini sind mir schon zu viel. Ich habe mir das daher so gedacht:
1. Part.: Backup für mein System (bootfähig)
2. Part.: Backup für meine pers. Daten (kann man da auch pers. Daten meines 2. Rechners, in ein seperats Verz. bakuppen?)
3. Part.: als Netzwerkplatte für Musi und Bilder (hat nur den Nachteil, dass es dann davon kein Backup gibt)

Wäre das machbar? Oder gibt es da etwas auszusetzen, bzw. sollte ich das so lieber nicht machen?

Danke!
 
Hallo!

Ich suche eine Möglichkleit bestimmte Ordner automatisch per ftp zu sichern. Bei .MAC gibt es ja das Backup-Programm. Das erstellt bei der ersten Sicherung ein komplettes Backup. Dann kann man einen Zeitplan einstellen und der Ordner wird regelmäßig auf der IDisk gesichert, wobei nur die Änderungen übertragen werden. Somit hat man auch die Möglichkeit ältere Versionen wieder herzustellen (ähnlich wie bei CVS). Nur leider ist :Mac kostenpflichtig.
Ich suche eine Möglichkeit solch ein Backup mit einem normalen ftp-Server über eine sftp-Verbindung zu machen.
Hat da irgend jemand eine Idee?

helgeh
 
helgeh schrieb:
...
Ich suche eine Möglichkeit solch ein Backup mit einem normalen ftp-Server über eine sftp-Verbindung zu machen.
...
Hast Du den überhaupt einen ssh Zugang auf den ftp Server?
 
Wenn auf dem ftp Server eine kompatible rsync Version läuft, kannst Du mit "rsync -e ssh" arbeiten.
Andernfalls wird es nicht ganz einfach sein, die Ressourceforks (sofern erforderlich) zu erhalten.

Davon abgesehen könnte man mit dem ftp Kommando MDTM (bzw. modtime) die Änderungszeit der Online Datei/en herausfinden und mit dem der lokalen Datei/en vergleichen.
Diesen Teil könnte man mit Perl und Net::FTP umsetzen.
MDTM wird aber nicht von allen Servern unterstützt.
Im schlimmsten Fall muss man ein Verzeichnislisting parsen.

Wenn die Übertragung nicht zwingend mit sftp erfolgen muss, könnte man ein Mirrorskript in Perl mithilfe von Net::FTP schreiben.
Es gibt auch ein Modul Net::SFTP, das ganz interessant aussieht - mit dem habe ich aber noch nicht gearbeitet.

Das Konzept basiert auf einem Vergleich der Änderungszeiten von lokalen und remote Dateien.
Wichtig ist deshalb, dass man nach einem Skriptlauf die Änderungszeiten aufeinander abgleicht, da ja nicht gesagt ist, dass die Uhren auf den beteiligten Rechnern synchron laufen.
 
Hallo zusammen,

hat das syncronisieren schon mal wer probiert?

Ich habe da was gefunden was ich mir nicht richtig erklären kann.
Ich habe mir 2 Orner zum testen angelegt. In beiden die selben Daten.
Da kopiert er natürlich nix ;-)

Wenn ich in dem Quelleordner einen Datei lösche znd dann das Script auführe funktioniert es auch.

Aber wenn ich aus dem Zielordner ne Datei lösche ertellt er mir die immer erst beim 2. ausführen des Scriptes...

Kann mir da einer weiter helfen?

Liebe Grüße
Martin
 
Er synchronisiert natuerlich so von Quelle zum Ziel. Es ist ja ein Backup. Da hat man auf dem Ziel nix zu loeschen.
 
mactie schrieb:
Ich hatte ja schon gefragt, wie das mit 2 Partionen ist. Nun ist meine Frage, wie es denn mit 3 oder 4 Partitionen ist?Danke!
Ich selber habe nur zwei Partitionen, sehe aber keinen Grund, warum das nicht auch mit 3 oder 4 funktionieren sollte.

martin2day schrieb:
Aber wenn ich aus dem Zielordner ne Datei lösche ertellt er mir die immer erst beim 2. ausführen des Scriptes...
Wieso "erstellt", wenn du etwas löschst? Vielleicht stehe ich gerade auf der Leitung, aber mir leuchtet nicht ganz ein, was da erstellt werden soll kopfkratz. Wenn du in einem der Verzeichnisse etwas löschst, das im anderen vorhanden ist, dann landet das doch beim Synchronisieren sofort auch im ersten wieder.
 
so jetzt klappt es mit dem synchen des user ordners.

ich hatte immer das problem, dass einige dateien vergessen werden.
es war wohl ein problem der pfade.

ich starte die scripte über ein weiteres script run_backup, welches den zeitstempel der letzten synchronisation überprüft.

da in der anleitung von sheep $HOME als quellverzeichnis gesetzt ist, kommt es zu problemen.
ich habe den pfad jetzt fest codiert:
Code:
#!/bin/sh

#Variablen fuer die Pfade
declare quelle="/Users/<username>"
declare ziel="/volumes/RAID1/"
kleine änderung große wirkung. jetzt klappt das.

@sheep
ich glaube das es nicht funzte lag daran, dass die scripte in der sudo crontab eingetragen werden. allerdings ist dort die variable $HOME für meinen user nicht bekannt.
man möge mich korriegieren, falls ich falsch liege.

gruz kasp
 
Zuletzt bearbeitet:
daskas schrieb:
@sheep
ich glaube das es nicht funzte lag daran, dass die scripte in der sudo crontab eingetragen werden. allerdings ist dort die variable $HOME für meinen user nicht bekannt.
man möge mich korriegieren, falls ich falsch liege.

gruz kasp

Hi ich bin zwar nicht sheep aber das ist leider so das bei sudo -u user leider nicht die .profile des users ausgeführt wird daher sollte man entw. die benötigten Variablen selber setzen oder evtl. die .profile im entsprechendem Script selber sourcen.

LG worf
 
Zurück
Oben Unten