Ein Backup ist kein Backup. Oder: So richtig blöd gelaufen...

...ich kann die Hetzner Storage-Box empfehlen: 1 TB für 3,81 €/Monat:
https://www.hetzner.com/de/storage/storage-box

Das schöne dabei: Man kommt u.A. per WebDAV und ssh/rsync drauf, damit sollte die Synology per Hyper Backup drauf sichern können. Monatlich kündbar ist das auch, falls es nicht funktioniert. Ich selbst nutze eine StorageBox nicht für die Syno, aber für andere Server mit dem Backup-Tool BorgBackup (verschlüsselt, inkrementell, deduplizierend): https://www.borgbackup.org/
 
  • Gefällt mir
Reaktionen: RD11
Was ich (noch) nicht mache, ist die Lagerung eines Backups außer Haus. Das muss ich mal sehen.
Neben Backblaze (richtig außer Haus) habe ich dafür eine Kopie im Keller. Ist nicht komplett aus dem Haus, aber zumindest könnte es bei einem Feuer, Einbruch o.ä. evtl. heil bleiben.
 
  • Gefällt mir
Reaktionen: RD11
Dazu nehme ich Synology's C2-Backup. Ich habe dort in Frankfurt 100GB "gemietet" und lasse mit Hyperbackup jede Nacht meine wichtigsten Daten verschlüsselt speichern (Verträge, Rechnungen, Quittungen, Fotos, Privatvideos, ...).
Das läuft bei mir von der Synology ins Strato HiDrive. Da habe ich einen relativ alten Vertrag und zahle für 500GB drei oder vier Euro im Monat.
C2 schau ich mir trotzdem mal an.
 
  • Gefällt mir
Reaktionen: jteschner
Das läuft bei mir von der Synology ins Strato HiDrive. Da habe ich einen relativ alten Vertrag und zahle für 500GB drei oder vier Euro im Monat.
C2 schau ich mir trotzdem mal an.
Mach das. Nur wie oben schon geschrieben, ist es C2-Storage (und nicht C2-Backup).
Mir gefällt daran die absolut reibungslose Integration in mein NAS, einfache Konfig, Geschwindigkeit und Zuverlässigkeit.
Aber es gibt natürlich auch viele Varianten von anderen Anbietern. Preislich tut sich da wohl nicht all zu viel.
Was bei mir auch noch den Ausschlag gab, war die Verfügbarkeit eines "kleinen" Plans zu einem Taschengeld-Preis. Ich wollte nicht das ganze NAS sichern, sondern nur die wichtigsten Daten - und da komme ich mit 100GB sehr gut klar.
 
  • Gefällt mir
Reaktionen: RD11
Echt mies gelaufen. CloudNordic ist auch kein kleiner Laden.
Aber wenn ich hier so oft lese, wie toll die pCloud ist oder das man ja "alles in der xyz-Cloud" gespeichert hat und "...ist noch nie was passiert..."
Kann jederzeit und überall passieren.
Zum Glück hat man ja noch all seine Daten als Original auf der lokalen Festplatte.

Was pCloud angeht:
Mit pCloud werden Ihre Dateien an mindestens drei Serverstandorten in einem hochsicheren Datenspeicherbereich gespeichert.
Das sollte entsprechend sicher sein. Wenn einer oder zwei Standorte betroffen sollten, gibt's die Daten noch an einem dritten oder gar mehreren. Bei CloudNordic scheint es mir so eine Aufteilung nicht gegeben zu haben:

CloudNordic erklärt, dass bei einem Umzug von Servern von einem Rechenzentrum in ein anderes die Maschinen an das interne Netz angeschlossen wurden. Die Maschinen waren zuvor in getrennten Netzen aktiv. Auf einigen Servern lauerten trotz Firewalls und Virenscannern unerkannte Infektionen, deren Verursacher zuvor nicht aktiv waren. Im internen Netz wurden sie dann jedoch aktiv und verschafften sich Zugang zu den Verwaltungs- und Backup-Systemen.
 
  • Gefällt mir
Reaktionen: BEASTIEPENDENT
Das klingt ja alles schön logisch ... "die wichtigsten Daten". Die Frage, die ich mir dabei aber stelle ist, wie kriegt man es denn dauerhaft hin, aus all den Dateien die neu hinzukommen, die sich ändern, immer "die wichtigsten Daten" zu identifizieren und dann ins Backup aufzunehmen?

Das man das inital zu Beginn mit etwas Aufwand hin kriegt ist mir klar. Aber dann im Laufe der Jahre?

Wie macht ihr das?

Ich habe vor ca 20 Jahren auch mal gemeint, ich hätte alle "wichtigen Daten" gesichert. Aber dann waren halt doch die source-codes eines Projektes weg, dass ich wieder benötigte, mühsam restaurierte LPs waren im Daten-Nirvana und alle Mails eines POP3-Kontos haben sich in Luft aufgelöst.

Ich habe dann gemerkt, dass man erst im Nachhinein weiß, was "die wichtigsten Daten" waren. Seither sichere ich das gesamte System (bzw. nun alles ex. macOS)
 
  • Gefällt mir
Reaktionen: stpf, iMaxer, BEASTIEPENDENT und eine weitere Person
Das klingt ja alles schön logisch ... "die wichtigsten Daten". Die Frage, die ich mir dabei aber stelle ist, wie kriegt man es denn dauerhaft hin, aus all den Dateien die neu hinzukommen, die sich ändern, immer "die wichtigsten Daten" zu identifizieren und dann ins Backup aufzunehmen?

Das man das inital zu Beginn mit etwas Aufwand hin kriegt ist mir klar. Aber dann im Laufe der Jahre?

Wie macht ihr das?

Ich habe vor ca 20 Jahren auch mal gemeint, ich hätte alle "wichtigen Daten" gesichert. Aber dann waren halt doch die source-codes eines Projektes weg, dass ich wieder benötigte, mühsam restaurierte LPs waren im Daten-Nirvana und alle Mails eines POP3-Kontos haben sich in Luft aufgelöst.

Ich habe dann gemerkt, dass man erst im Nachhinein weiß, was "die wichtigsten Daten" waren. Seither sichere ich das gesamte System (bzw. nun alles ex. macOS)
Irgendwo hatte ich das schon mal für meinen Fall erläutert (in einem anderen Backup Thread) ...
Ganz knapp:
0- Priorisierung der Daten in High, Medium, Low - das steuert bei mir, was wie häufig und wie viele Male gesichert wird
1- Ich habe auf dem MBP Synology-Drive installiert (Echtzeit-Sync zum NAS) und dort Ordner angelegt. Dort speichere ich alles an Dokumenten wie Verträge, Rechnungen, Quittungen, Finanzdokumente, ... Sobald ich dort etwas reinschiebe wird direkt eine Kopie auf das NAS gelegt.
2- Jede Nacht läuft eine Sicherung dieser Daten (+ Fotos, Privatvideos, NAS Konfig, ...) vom NAS nach C2-Storage in Frankfurt
3- jeden Sonntag um 10Uhr läuft ein automatisches Fullbackup meines NAS auf eine externe Platte und ich mache mit ChronoSync noch ein Fullbackup meines MBP
4- Timemachine am MBP läuft auf eine Samsung T7 im Standard-Modus

Im täglichen Betrieb muss ich also nur entscheiden: speichere ich das Dokument im Synology-Drive (Echtzeitsicherung (Prio HIGH)) oder an anderer, niedriger priorisierten Stelle. Für meine Wenigkeit nur eine Frage der Disziplin.

Zu deinem Beispiel "Sourcecode": ich würde das direkt im Synology-Drive ablegen - wären aus meiner Sicht Prio High Daten und damit mindestens 3-4 mal gesichert. Wobei: 20 Jahre sind natürlich eine lange Zeit - ich wüsste gar nicht, wie lange Synology beim C2-Storage zurückgeht ... Da müsste man überlegen, ob man nicht diese neue Speicherart (WriteOnce) von Synology implementieren sollte, die Aufbewahrungsregeln berücksichtigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dg2rbf
Das sollte entsprechend sicher sein. Wenn einer oder zwei Standorte betroffen sollten, gibt's die Daten noch an einem dritten oder gar mehreren. Bei CloudNordic scheint es mir so eine Aufteilung nicht gegeben zu haben:
Ja, sollte...
CloudNordic ist nur ein Beispiel von vielen. Nichts ist wirklich sicher. Kann bei pCloud auch passieren, dann eben koordinierter, wenn es ein geplanter Angriff ist.
Schwachstellen gibt es immer wieder und jeden Tag steht ein Dummer auf...

Und die Original Dateien....
Gibt hier einige Threads die auch andere Geschichten erzählen.
 
  • Gefällt mir
Reaktionen: dg2rbf
Sorry, aber wenn ich von einem Rechenzentrum auf ein anders umziehe, würde ich alle Daten mehrfach unabhängig absichern. Bei CloudNordic scheint es mir so, als wollten die 1:1 von einem DC auf ein anderes umziehen, ohne zusätzliche backups. Für mich ist das eher grob fahrlässig.
 
  • Gefällt mir
Reaktionen: Wildbill, BEASTIEPENDENT und Macschrauber
Sorry, aber wenn ich von einem Rechenzentrum auf ein anders umziehe, würde ich alle Daten mehrfach unabhängig absichern. Bei CloudNordic scheint es mir so, als wollten die 1:1 von einem DC auf ein anderes umziehen, ohne zusätzliche backups. Für mich ist das eher grob fahrlässig.

Es wurden Server in einem anderen RZ in Betrieb genommen und die waren infiziert. Der Umzug war noch nicht im Gange. Backups gab es sehr wohl. Aber die Verwaltung der Server wurde übernommen und von da aus gelöscht.
 
Hi,
Da haben wohl die Sysops, das System nicht auf Virenbefall gescannt.
Franz
 
Dazu nehme ich Synology's C2-Backup. Ich habe dort in Frankfurt 100GB "gemietet" und lasse mit Hyperbackup jede Nacht meine wichtigsten Daten verschlüsselt speichern (Verträge, Rechnungen, Quittungen, Fotos, Privatvideos, ...).
Der 100GB-Plan kostet knapp 1€/Monat.
C2 nutze ich auch als letzte Instanz.
 
  • Gefällt mir
Reaktionen: BEASTIEPENDENT und dg2rbf
...versteh' ich trotzdem nicht: Du hast doch ein Raid, wenn Du Platten 'mal eben' tauschst? Ob du den Raid-Rebuild nach einem Platten-Defekt oder 'mal eben so' machst spielt doch unter Risikoaspekten keine Rolle - das Raid ist währenddessen in jedem Fall degraded.
Und falls es jetzt wieder in den Fingern juckt, mit der alten Leier um die Ecke zu kommen: "Ja aber die Wahrscheinlichkeit eines Gewsamtausfalls durch weitere Plattendefekte während des Rebuilds steigt bei alten Platten": Wie wahrscheinlich ist das, wenn man nicht wiklich 'Metusalems' im System hat? Und selbst wenn: Who cares, Du hast mehrere Backups? Dann ist das Ding halt mal für einen Tag offline während des Rebuilds, aber Du hast über die Jahre massiv Geld gespart, gerade bei grossen Raids. (Wir reden doch vom Privatgebrauch, oder?)
Aber jeder wie er mag. Bei meinem Raid mit Enterprise-SSDs würd' ich mir das finanziell nicht antun wollen. Ok, Vorteil hier: Man kann den Wear-Level kontrollieren...
Ja, privat.
Natürlich ist der raid während der Zeit degraded. Aber in Summe für mich weniger Zeitaufwand.
Alte Platte raus, neue rein, den Rest erledigt das NAS.
Der Zeitvorteil ist mir alle mal die paar Euros wert - massiv sparen tut man da nicht aus meiner Sicht.
Aber ich sehe das vielleicht auch mit anderen Augen, wenn ich da sonst meinen Stundensatz und/oder Verdienst gegenrechne, zahle ich eher drauf. Und die wenige Freizeit die man hat verbringe ich dann lieber mit Freunden & Familie statt am Rechner zu hängen
 
Da hat jemand seinen Job nicht gewissenhaft gemacht.
Wurde von keinem Scanner oder FW erkannt. Waren auch nicht aktiv bis dahin. Die wissen schon was die machen. Aber wenn alles Pech zusammenkommt….
 
Das klingt ja alles schön logisch ... "die wichtigsten Daten". Die Frage, die ich mir dabei aber stelle ist, wie kriegt man es denn dauerhaft hin, aus all den Dateien die neu hinzukommen, die sich ändern, immer "die wichtigsten Daten" zu identifizieren und dann ins Backup aufzunehmen?

Das man das inital zu Beginn mit etwas Aufwand hin kriegt ist mir klar. Aber dann im Laufe der Jahre?

Wie macht ihr das?
Ich trenne ganz simpel zwischen persönlichen Daten, also von mir erstellten, und all dem Kram, den man zumindest theoretisch zurückbekommen könnte ohne Kosten und Aufwand.
Eigene Bilder sind wichtig, gespeicherte Videos aus den Mediatheken sind weniger wichtig.
Der Einfachheit wegen: der Homeordner ist wichtig, Videos et cetera liegen eh außerhalb, auf externen Platten.
Die iTunes-Audios fallen unter wichtig, wegen der Bearbeitungen der Tags und weil es halt irre viel Zeit kosten würde, die CDs und MCs und LPs wieder einzulesen - auch wenn die Rohdaten natürlich weiterhin vorhanden sind oder, bei iTunes-et-al-Käufen, wieder downloadbar wären.
 
Irgendwo hatte ich das schon mal für meinen Fall erläutert (in einem anderen Backup Thread) ...
Ganz knapp:
0- Priorisierung der Daten in High, Medium, Low - das steuert bei mir, was wie häufig und wie viele Male gesichert wird

Die Punkte 1 - 4 sind klar, kein Thema.

Aber hälst du das mit Punkt 0 auch im Alltag durch alle Dateien, die du kriegst jeden Tag so zu priorisieren?

Wenn du bspw einen neuen Song kaufst oder eine CD rippst, kopierst du das neben dem Musik-Ordner für den Player auch in den NAS-Sync-Ordner? Was ist mit Mails, interessanten Links auf Webseiten, Fotos, Nachrichten deines Messengers? Was mit den Apps von außerhalb des Stores, den Konfigurationen der Apps?

Ich würde mir diese Last nicht auferlegen, das alles in high - medium -low zu klassifizieren.

Ich sichere alles und kann daher bedenkenlos auf einen neuen Rechner umsteigen und habe alles so wie vorher zur Verfügung. Und das alles immer doppelt lokal und einmal offsite.

Zu den sourcecodes: damals hatte ich noch keine Versionsverwaltung lokal verwendet. Da waren dann die sourcecodes und die jeweiligen object-Datiene, etc, eben alle in einem Verzeichnis. Und da die object-Dateien ja temporär sind, sich beim Programmieren / Testen regelmäßig mit ändern, habe ich die sourcecodes, so wie du eben als wenig wichtig klassifiziert und dann nicht gesichert. Mittlerweile verwende ich für alle sourcen git, entweder mit einem lokalen repository, dass auch gesichert wird, ggf. zusätzlich zu github.
 
  • Gefällt mir
Reaktionen: BEASTIEPENDENT und luxus13
Dazu nehme ich Synology's C2-Backup. Ich habe dort in Frankfurt 100GB "gemietet" und lasse mit Hyperbackup jede Nacht meine wichtigsten Daten verschlüsselt speichern (Verträge, Rechnungen, Quittungen, Fotos, Privatvideos, ...).
Der 100GB-Plan kostet knapp 1€/Monat.
Nur leider kommt man mit 100 GB bei nem NAS nicht weit.....alleine die Fotos überschreiten das schon um ein vielfaches.
 
  • Gefällt mir
Reaktionen: BEASTIEPENDENT

Ähnliche Themen

coolboys
Antworten
41
Aufrufe
1.420
tocotronaut
tocotronaut
Zurück
Oben Unten