Sicheres Backup in einer Cloud: duplicati und duplicacy - ein kleiner Bericht

jteschner

Aktives Mitglied
Thread Starter
Registriert
30.05.2006
Beiträge
8.046
Reaktionspunkte
5.712
Da sich bestimmt recht viele fragen, wie sie denn ein externes aber sicheres Backup in eine Cloud machen können und es auch in diesem Forum bereits die ein oder andere Anfrage dazu gab, habe ich gedacht, dass ich mal in Kurzform zwei Tools vorstelle und von meinen Erfahrungen berichte.
Aber alles in knappen Worten, um einen gewissen Überblick zu bekommen. Denn am Ende muss sich sowieso jeder Interessent damit intensiver beschäftigen.
Auch wichtig: es gibt wahrscheinlich noch einige andere Tools, die ebenso gut oder vielleicht sogar besser sind. Darum die Bitte mich nicht dafür steinigen, dass ich mich hier auf die 2 genannten beschränke. Das sind die beiden einzigen, die ich bislang selbst genutzt habe und aktuell auch nutze - das eine in "Produktion" und das andere im "Test"

Aufgabenstellung: Ein Backup meiner wichtigsten Daten in eine externe Cloud als "Ausserhausbackup" (neben meinen lokalen Backups)
Meine Bedingungen: es soll sicher (verschlüsselt), automatisch, schnell und möglichst einfach in der Wartung sein und ich will sehen wann etwas schief läuft. Auch soll ein Daten-Restore auf beliebige Rechner (komplett oder einzelne Dateien) oder auch beliebige Verzeichnisse möglich sein. Dazu muss das Tool für mehrere Plattformen angeboten werden (MacOS, Linux, Windows).
Auch sollten Delta-Backups angelegt werden und ähnlich wie bei TimeMachine eine Versionierung über die Zeit stattfinden.

Mir wurde vor einiger Zeit dazu duplicacy empfohlen, das ich nun auch seit mehreren Monaten erfolgreich auf dem Mac in Betrieb habe. Damit sichere ich unter macOS meine Fotos, Privatvideos und wichtige Dokumente in meinen Cloudspeicher von 1&1. Als zweite Lösung stand duplicati zur Wahl, das jedoch aus verschiedenen Gründen durch das Raster fiel. Nun habe ich mir das aber nochmal aktuell angeschaut und teste es erfolgreich seit einigen Tagen.

Nun zu ein paar Erfahrungen (natürlich nur aus meiner persönlichen Sicht):

**duplicacy**
Details/Features sind auf folgenden Seiten nachzulesen und ich möchte das inhaltlich nicht wiederholen:
https://duplicacy.com (offizielle Seite)
https://github.com/gilbertchen/duplicacy/releases (kostenlose CLI Version; GitHub)

Vorteile:
- in der CLI Version (über das Terminal zu bedienen) kostenlos
- sehr mächtig, schnell, sicher, zuverlässig
- sehr viele bekannte Cloud-Anbieter bereits einkonfiguriert (plus webdav, smb, lokal, ...)
- einfach in der Installation (nur ein binary nach /usr/local/bin kopieren) und nicht überaus kompliziert in der Bedienung
- gute User-Dokumentation über github
- Sehr gute GUI gegen geringe Kosten lizensierbar

Nachteile:
- Einarbeitungszeit wenn die CLI-Version verwendet wird.
- CLI-Version: Automatisierung (macOS) über LaunchAgents (zusätzliche Einarbeitung)
- CLI-Version: nichts für Leute, denen das Terminal und etwas einfaches Scripting fremd ist

Neutral:
- GUI nicht kostenlos (20$ für den ersten Rechner im ersten Jahr, dann 5$/Jahr in den Folgejahren) - genauer auf der offiziellen Seite nachzulesen

**duplicati**
Details/Features sind auf folgenden Seiten nachzulesen und ich möchte das inhaltlich nicht wiederholen:
https://duplicati.com (offizielle Seite)
https://github.com/duplicati/duplicati

Vorteile:
- es gibt eine dauerhaft kostenlose Version, die für die allermeisten Privatleute ausreichend sein sollte
- eine GUI (web-based) ist dabei - es kann aber auch über das Terminal genau wie duplicacy bedient werden
- sehr viele bekannte Cloud-Anbieter bereits einkonfiguriert (plus webdav, smb, lokal, ...)
- Erstinbetriebnahme unter macOS in wenigen Sekunden, auf dem NAS unter Docker/Compose in wenigen Minuten (wenn man Docker etwas kennt)
- Erstes Backup lief bei mir nach 10 Minuten vom Mac in die 1&1-Cloud (ohne weitere tiefgreifende Vorkenntnisse)
- Über die GUI ist das allermeiste konfigurier- und abrufbar
- eigener Scheduler für automatische Backups

Nachteile:
- man muss in der GUI aktiv nachschauen, um festzustellen ob mit einem Backup was schief gelaufen ist - eMail wäre mir lieber
--> Korrektur 19:55: eMail ist relativ einfach machbar. Muss ich nur noch testen
- eigener Scheduler für automatisierte Backups (also kein LaunchAgent). Daher werden unter macOS auf meinem M1-Pro ca. 1% Prozessor-Last dauerhaft erzeugt.

Neutral:
- scheint etwas langsamer als duplicacy in der Ausführung der Backups zu sein. Genau kann ich es leider aktuell nicht sagen. Allerdings: who cares wenn ein Backup zB in der Nacht läuft

---------------------------

**(Erste) Erfahrungen:**
Aktuell laufen bei mir Backups verschiedener Verzeichnisse mit duplicacy (CLI-Version) automatisiert von meinem Mac in die Cloud. Dazu habe ich ein paar einfache Scripte geschrieben, die wiederum von LaunchAgents zu bestimmten Uhrzeiten angestossen werden. Kein Riesending. Und läuft super.

duplicati habe ich für meine Praxistests allerdings inzwischen auf meinem DIY-NAS (RPi4b) im Docker installiert, da mein NAS sowieso alle Daten enthält und 24/7 läuft. Da kann ich des Nachts immer gut das Backup in die 1&1-Cloud starten. Und ich muss sagen: löppt problemlos. Auf dem Mac lief es auch, aber dann dachte ich: wenn das NAS schon mal da ist ...
Zur Geschwindigkeit des nächtlichen Backups (jede Nacht um 3:00Uhr):
- initial vor einer Woche hat es natürlich gedauert, weil die 1&1-Cloud nur ca. 5MB/s schreibend zulässt (es sind 43GB Daten in 18800 Dateien) - aber es lief ja "im Schlaf" ;-)
- von gestern auf heute gab es nur wenig Änderungen im Datenbestand (ca. 45MB) und das Deltabackup dauerte lt. Log exakt 1min22sek inkl. allem (Abgleich was sich in den 43GB geändert hat und Verschlüsselung + Übertragung neuer/geänderter Daten in die Cloud)
Auch habe ich getestet, aus dem Backup in der Cloud, also gemacht mit duplicati auf dem NAS, ausgewählte Dateien über duplicati auf dem Mac auf den Mac zu restoren. Ergebnis: null Problemo. Man muss halt nur alle Details wissen (Cloud-Adresse, Login/PW, Ordner des Backups, Key für die Verschlüsselung) und los gehts.

**Zusammengefasst:**
Ich muss sagen, wenn ich etwas heute empfehlen sollte, dann wäre das duplicati - es ist halt sehr einfach in Installation und Bedienung und benötigt keine weiteren Kenntnisse in Terminal, Shell, Automatisierung o.ä.
duplicacy ist auch toll, läuft evt. etwas schneller und ist ressourcenschonender weil es nur während des Backups läuft. Aber es erfordert schon eine gewisse Einarbeitung und den Willen das zu tun (man lernt aber auch was dabei :) )

Das wäre es erst einmal von meiner Seite.
Feedback und weitere Erfahrungen (auch konträre) werden gern genommen.
 
Zuletzt bearbeitet:
Vielen Dank für die Zusammenfassung - ich schätze solche Erfahrungsberichte und Vergleiche sehr!

Um das Bild mit einem weiterem vergleichbaren Tool abzurunden, das sich vor allem eignet, wenn man das Backup-Ziel (den Repository-Server) selbst betreibt:

Falls man den Repository-Server nicht selbst betreibt, kann man u.A.
nutzen.

Vorteile:
  • Verschlüsselung
  • Deduplizierung
  • Versionierung
  • Mounten von Snapshots
  • Eignet sich gut für automatisierte Backups eigener Server auf eigene Server oder Platten als Backupziel
  • Open Source
Nachteile:
  • Beschränkte Anzahl an kommerziellen Repository-Providern
 
Sehr interessant! Als ich seinerzeit auf der Suche nach einem Online-"Datengrab" war, eben keiner "Cloud", die zumeist einen lokalen Datenbestand spiegelt (für mich nicht backuptauglich), habe ich das mit der vorhandenen Synology Diskstation und Hyperbackup gelöst. So sichere ich ausgewählte Daten vom Mac als auch externe Platten (in diesem Fall Fotos) zuerst auf die Syno, von dort per Hyperbackup C2 auf einen Server in Frankfurt, alles quasi automatisch (bis auf die Fotoplatte, die ich natürlich einstecken muss und den entsprechenden Ordner auf der Diskstation mounten, damit CCC sie auf das NAS backupt). 2TB für 166€/Jahr, passt für mich.
Ohne das NAS würde ich eine deiner Lösungen versuchen.
 
Sehr interessant! Als ich seinerzeit auf der Suche nach einem Online-"Datengrab" war, eben keiner "Cloud", die zumeist einen lokalen Datenbestand spiegelt (für mich nicht backuptauglich), habe ich das mit der vorhandenen Synology Diskstation und Hyperbackup gelöst. So sichere ich ausgewählte Daten vom Mac als auch externe Platten (in diesem Fall Fotos) zuerst auf die Syno, von dort per Hyperbackup C2 auf einen Server in Frankfurt, alles quasi automatisch (bis auf die Fotoplatte, die ich natürlich einstecken muss und den entsprechenden Ordner auf der Diskstation mounten, damit CCC sie auf das NAS backupt). 2TB für 166€/Jahr, passt für mich.
Ohne das NAS würde ich eine deiner Lösungen versuchen.
Ja, genau so hatte ich das auch als meine Synology noch in "Produktion" war - das funktioniert auch sehr zuverlässig und einfach.
Und der C2-Service ist auch nicht teuer - ich hatte sogar nur (für mich ausreichende) 100GB für 12€/Jahr.
 
Zurück
Oben Unten