Langfristige Datensicherung auf welches Medium und in welchem Format

Aus der bisherigen Diskussion kann man also als erstes Fazit ableiten: CD's und ähnliche Datenträger scheiden für eine langfristige Datensicherung aus. Ich denke das trifft erst recht auch auf Magnetbänder und Disketten jeglicher Art zu.

Im Grunde verbleiben also für eine langfristige Sicherung nur externe Server oder Cloud-Lösungen. Wobei bei diesen Lösungen dann auch die Fragen des Datenschutzes im Vordergrund stehen.

Und als Format sind wohl PDF, doc und txt Dateien zu empfehlen.

Was ist mit den Daten in Datenbanken z.B. FileMaker oder 4D? In was für einem Format sollte man diese langfristig sichern?

Hi jhsenator,

a) es gibt auch CDs/DVDs für die Langzeitarchivierung. Diese sind aber auch teurer. Es gibt die sogenannte "MDisc", die angeblich 1.000 Jahre halten soll.
b) FileMaker/4D: Hier solltest Du einen Export der Daten in ein offenes Format durchführen. Bei 4D bin ich nicht so ganz im Bilde, bei FileMaker kannst Du die Daten ja in zig Formate wandeln (Text mit Tab mit z. B.), allerdings gilt das nicht für Medien-Datenfelder (also Bilder/Audio, die ggfls. in der Datenbank drin sind).
c) Datenschutz: Aus diesem Grund solltest Du einen Anbieter wählen, der den deutschen Datenschutzgesetzen unterliegt, die Daten in Deutschland speichert und Dir auch ermöglicht die Daten sicher zu verschlüsseln.
Ich betreibe jetzt Eigenwerbung, Achtung ;)
www.oecherwolke.de

Hast Du einen Überblick, über welche Datenmengen wir bei Dir überhaupt reden?

Gruß

Sven
- OecherWolke -
 
Nein, das hast du falsch verstanden!

CD's sind natürlich auch ein Medium welches man für eine Langfristige Archivierung überlegen sollte. Gerade weil es günstig und Wartungsarm ist. Wenn man nicht gerade den billigesten Schrott an Rohlingen kauft, dann kann man damit durchaus eine Qualitativ gute Langszeitarchivierung durchführen. - Um eine Datenpflege kommt man nicht herum - zumindest nicht wenn man es ernst nimmt.

Ein 100er Pack CD Rohlinge kostet zwischen 20 und 30 Euro (je nachdem welche man nimmt - eine mindestqualität vorrausgesetzt, gibt auch günstigere). Das sind 70GB Daten für 25 Euro (Mittelwert) - alle 2 Jahre auf neue Medien kopieren macht das dann 18 Cent pro Jahr pro GB (pro Archiv). Bei einem überschaubaren Aufwand und einer gewissen Robustheit gegenüber externen Einflüssen.
Blu-Rays (25GB) kostet so 30-50 Euro, je nach Qualität im 25er Pack. Ist natürlich günstiger, wobei BDs empfindlicher sind (z.B. Kratzer).

"Online"-Lösungen kosten ständig Kohle und die müssen ständig gepflegt werden. Da fällt die "jährliche Datenpflege" zwar weg, aber nur weil man sie ja quasi täglich durchführt. (Was letztendlich die Kosten produziert).

PDF und TXT kann man imo unbedenklich nutzen. DOCs sind so eine Sache. Sicher kann man die in 15 Jahren noch lesen, aber ob das Doc dann wenn man es öffnet noch genau so aussieht wie heute? - Eher unwahrscheinlich. Wenn das kein Problem ist, kann man DOCs imo nutzen. Ansonsten halt PDF.

Atti

Hi Atti,

kleine Korrektur: Blu-Rays sind nicht empfindlicher, sie sind sogar robuster und fehlertoleranter als CDs und DVDs. CDs und DVDs wurden ursprünglich nicht für die Speicherung von Daten konzipiert, sondern für Audio und Video-Daten. Da ging man davon aus, dass die Fehlerkorrektur ausreicht, um Fehler zu korrigieren. Das ist bei normalen Dateien halt nicht der Fall. Ein defektes Bit reicht schon, um Dateien unbrauchbar zu machen.
Bei der Blu-Ray wurde von Beginn an auch die Nutzung als Datenspeicher eingeplant.

Ich bleibe bei der Frage nach der Datenmenge. Dann wissen wir auch, ob CDs/DVDs (z. B. MDisc) für den TE interessant sein könnten (er wird kaum 500GB an Daten auf CDs oder DVDs brennen wollen, selbst bei Sicherung auf Blu-Ray würde er 10-20 Medien brauchen).

Bezüglich der Langzeithaltbarkeit: Bei CDs/DVDs (gebrannt) geht man von 5-10 Jahren (maximal) aus, Tendenz eher 5 Jahre. Allerdings muss der TE dann auch dafür sorgen, dass er in immer noch ein CD/DVD-Laufwerk hat, um die Daten auslesen zu können.

Gruß

Sven
- OecherWolke -
 
Schön die einzige Aussage, die ich daraus ableiten kann, spricht nicht unbedingt für deine BackUp-Disziplin.

Ansonsten weiß ich ja nicht, was du mit deinen lokalen Datenträgern veranstaltest. Den Fall, dass zwei an verschiedenen Orten sachgerecht gelagerte DVDs in einem intakten Laufwerk (das es heute für unter 20 Euro gibt) gleichzeitig „nicht mehr lesbar“ sein sollen, halte ich für praktisch ausgeschlossen. Jedenfalls für extrem viel unwahscheinlicher wie den, dass man aus irgendwelchen Gründen keinen Zugriff auf den Cloud-Speicher hat.

Ich wiederhole mich da gerne: Clouds mögen in Sachen Verfügbarkeit von Daten eine feine und moderne Sache sein. Zur langfristigen Archivierung von Daten, Aufbewahrung von Daten also, die man nicht mehr auf dem Arbeitsrechner vorhalten möchte, - und das war hier die Frage - halte ich diese Art, sein Heil vollständig in fremde Hände zu legen, für absolut schwachsinniges Harakiri. Sorry!

Hi flyproductions,

ich gebe Dir recht, dass es immer "Harakiri" ist, wenn man wichtige Daten nur auf einem Medium speichert (egal, ob nur online, nur DVD, nur eine Festplatte, etc..).

onebuyone ist scheinbar mit CrashPlan verheiratet ;)
Wir nutzen auch CrashPlan, allerdings auf unseren eigenen Servern (in Deutschland) und wir raten den Kunden AUSDRÜCKLICH, IMMER ein zweites Backup vor-Ort zu haben. Niemand kann 100%ige Datensicherheit garantieren.
Die Online-Sicherung ersetzt das zweite Backup, dass man ansonsten manuell ausser Haus bringen muss. Dies ist mit Arbeitsaufwand verbunden und erfordert strikte Disziplin. Dies nimmt einem die automatische Online-Sicherung ab.


Darum die 3-2-1-Regel befolgen. Diese enthält auch den Punkt "unterschiedliche Medien". Eine Speicherung ausschließlich auf DVDs (2fach) passt da nicht, da es sich um den selben Medientyp handelt, den Rest habe ich schon ausgeführt.

Die Befolgung dieser Regel deckt eigentlich jeden Fall ab. Natürlich würde ein großflächiger Krieg mit Atombomben wahrscheinlich auch zur Zerstörung aller Daten führen, allerdings gehe ich davon aus, dass man dann andere Probleme hat, als dass man irgendwelche Dokumente nicht mehr hat. ;)

Gruß

Sven
- OecherWolke -
 
Ich habs in meiner kleinen Firma doppelt abgesichert:

Online Backup in der Cloud von den täglichen Daten (Mail, ERP, DMS, usw.). Deutscher Anbieter natürlich. Und Backups testen! Einmal im Monat wird an einer Datei getestet, ob das auch funktioniert.

Dazu ein physikalisches Vollbackup das jede Woche erstellt wird und in meinem Rucksack steckt. Eben nicht in der Firma sondern weg von Standort. Wenns mal brennt wäre sonst alles weg. Also nehme ich ein Backup immer mit nach Hause.

Bei simplen Datenausfall oder versehentlichem Löschen kannst du dann aus der Cloud die Daten wieder holen. Wenn der Server abschmiert habe ich mein wöchentliches Vollbackup und könnte das mit den Clouddaten wieder auf den aktuellen Stand bringen. Als Backupmedium verwende ich RDX Laufwerke. Auch hier wichtig: Backups testen. Gibt nichts schlimmeres als ein nicht funktionierendes Backup.

Für mich als Kleinfirma ok, für größere Geschichten gibt es da sicherlich noch Optimierungsbedarf.

http://www.tandbergdata.com/de/index.cfm/products/removable-disk/rdx-quikstor/
 
Mit dem Upload kriegst du pro Tag gar keine 6 GB rübergeschaufelt.

1 GB dauert ja schon mindestens 5 Stunden.


Und das nur, wenn du nichts downloadest – denn der Download blockiert den Upload
genauso wie andersherum.


7 Tage Leitung blockieren kann und will ich mir nicht leisten, sorry...

Hi MacEnroe,

ich muss onebuyone insofern unterstützen, dass die Kompression und Deduplizierung von CrashPlan schon enorme Dinge leistet.
Es kommt sehr stark auf den Typ der Daten an. Die 6GB, die onebuyone pro Tag produziert sind nicht ausschließlich vollkommen neue Dateien, sondern Änderungen an bestehenden Dateien (wie bei den meisten Anwendern).

Sind es vorwiegend Änderungen an bestehenden Dateien (auch neue Versionen von bestehenden Dateien) ist die effektive Datenmenge, die übertragen werden muss, erheblich geringer. CrashPlan sichert nur die Differenz zwischen ähnlichen Dateien, das reduziert die zu übertragende Datenmenge erheblich.
Beispiel: Ein Kunde sichert eine 85GB-Datenbank... jeden Tag, zweimal via DSL. Die Sicherung dauert jeweils nur 30-40min. Übertragen werden in dieser Zeit nur wenige MBs, somit ist auch die Leitung in der Zeit nicht "zu". CrashPlan "scannt" die Datei und prüft Änderungen gegenüber der bereits im Backup vorhandenen Datei. Nur die geänderten Datenblöcke werden übertragen. Da diese Datenbank komprimiert ursprünglich nur ca. 45GB auf der Cloud belegt und jeden Tag nur wenige MBs hinzukommen, belegt diese Datenbank (inkl. der ganzen Versionen) nach nun fast 2 Jahren auch nur ca. 52GB auf der Cloud.

Weiterhin: Der Upload blockiert nicht oder nur kaum den Download und umgekehrt.

Wenn das bei Dir anders ist, solltest Du Deinen Router prüfen lassen (Stichwort Traffic Shaping).


Teste es doch mal bei Dir... auf oecherwolke.de gibt es einen kostenlosen Demo-Zugang.

Gruß

Sven
- OecherWolke -
 
Ich habs in meiner kleinen Firma doppelt abgesichert:

Online Backup in der Cloud von den täglichen Daten (Mail, ERP, DMS, usw.). Deutscher Anbieter natürlich. Und Backups testen! Einmal im Monat wird an einer Datei getestet, ob das auch funktioniert.

sehr löblich Dein Vorgehen. Das von uns verwendete CrashPlan führt diese Prüfungen automatisch durch. Alle 7 Tage ein Schnelltest, alle 28 Tage ein Intensivtest. Dabei wird die Konsistenz ALLER Datenblöcke des Backups geprüft, ob diese in Ordnung sind. Wird ein Fehler festgestellt wird der Client-Rechner aufgefordert, diese Daten erneut zu übertragen.
Eine manuelle Prüfung, wie Du sie durchführst, ist natürlich trotzdem mal ganz gut, aber nicht notwendig (es ist ja eh nur eine Stichprobe).

Dazu ein physikalisches Vollbackup das jede Woche erstellt wird und in meinem Rucksack steckt. Eben nicht in der Firma sondern weg von Standort. Wenns mal brennt wäre sonst alles weg. Also nehme ich ein Backup immer mit nach Hause.

Bei simplen Datenausfall oder versehentlichem Löschen kannst du dann aus der Cloud die Daten wieder holen. Wenn der Server abschmiert habe ich mein wöchentliches Vollbackup und könnte das mit den Clouddaten wieder auf den aktuellen Stand bringen. Als Backupmedium verwende ich RDX Laufwerke. Auch hier wichtig: Backups testen. Gibt nichts schlimmeres als ein nicht funktionierendes Backup.

Für mich als Kleinfirma ok, für größere Geschichten gibt es da sicherlich noch Optimierungsbedarf.

http://www.tandbergdata.com/de/index.cfm/products/removable-disk/rdx-quikstor/

Dein Vorgehen ist gut, mit den Daten im Rucksack hätte ich ja zwar meine Bauchschmerzen (aber das musst Du mit Dir ausmachen ;) ).

Du bist auf jeden Fall X Schritte weiter, als sehr viele andere Anwender, die bei dem Wort "Backup" sagen: "davon habe ich schon mal gehört" oder sich ausschließlich auf eine TimeMaschine oder noch schlimmer "manuelle Datensicherung" verlassen.

Gruß

Sven
- OecherWolke -
 
Hi MacEnroe,

ich muss onebuyone insofern unterstützen, dass die Kompression und Deduplizierung von CrashPlan schon enorme Dinge leistet.
Es kommt sehr stark auf den Typ der Daten an. Die 6GB, die onebuyone pro Tag produziert sind nicht ausschließlich vollkommen neue Dateien, sondern Änderungen an bestehenden Dateien (wie bei den meisten Anwendern).

Sind es vorwiegend Änderungen an bestehenden Dateien (auch neue Versionen von bestehenden Dateien) ist die effektive Datenmenge, die übertragen werden muss, erheblich geringer. CrashPlan sichert nur die Differenz zwischen ähnlichen Dateien, das reduziert die zu übertragende Datenmenge erheblich. (...)

Die 6 GB in den Screenshots sind aber effektiv vom Router gemessene übertragene Werte.

D.h. mein Rechner ist den halben Tag beschäftigt, wenn 6 GB neue Daten anfallen, z.B. ein gerendertes Video o.ä.
Soweit ich weiß, ist in der Zeit nicht einmal ein Ruhezustand des Rechners möglich.

Mir reicht es schon, wenn TimeMachine die Festplatte für jeweils nur ein paar Sekunden
beschäftigt. Selbst hier kommt es manchmal schon zu Meldungen, das System kann evtl.
leicht gebremst werden (Schreibvorgänge oder Auslagerungen in Photoshop o.ä.)


Der Hinweis mit Up/Downstream ist interessant, dem werde ich einmal nachgehen, ob das
evtl. wirklich am Router liegt.
 
Och Gottchen! ...und ich brenne 50 Gig in 20 Minuten auf eine Blu Ray. Dass sind zwei Sicherheitskopien von 50 Gig, die ich dann, angefangen von einem Bankschließfach bis zu im Wald vergraben, aufbewahren kann, wo ich will, unter einer Stunde.

Ich hoffe, Du hast auch die Zeit für das Fahren zum Bankschließfach und das Reinigen der Gummistiefel nach dem Wald-Besuch nicht vergessen ;)

Wer den von Dir betriebenen Aufwand:
Blu-Rays kaufen
Blu-Rays brennen (50GB in 20min. halte ich für ein Gerücht (was ist mit der Prüfung des Rohlings nach der Erstellung?), lasse es aber mal so stehen)
Blu-Rays beschriften
Blu-Rays katalogisieren (Tri-Catalog oder ähnliches; wo sicherst Du die Kataloge?)
Blu-Rays einpacken
Zum Auto gehen
Zur Bank fahren (oder in den Wald ;) )
Blu-Ray in Schließfach packen oder eingraben
zurückfahren
vom Auto ins Büro gehen
usw..
gerne JEDEN Tag ausführt (machst Du es z. B. nur 1mal pro Woche, kannst Du also den Verlust von einer Woche an Daten "überleben"?), der soll das so machen. Andere lassen sich diesen Aufwand abnehmen und nutzen eine Online-Sicherung. Der eine geht auch zu Fuss 5km zur Arbeit, der andere nutzt den ÖPNV.

Ansonsten weiß ich nicht, wieso du hier immer so tust, als ob sämtliche physischen Gefahren (Diebstahl, Feuer, Hardwareschäden) nur dich als User zuhause bedrohen würden.

All das kann jedem deiner hochgelobten Cloud-Hosts jeden Tag genauso passieren. Oder „glaubst“ du, der hat seine Serverschränke tatsächlich auf einer Wolke stehen, wo es keine Kriminalität, keine Naturgewalten und keinen Brände, Wasserrohrbrüche etc. gibt? Der einzigen Unterschied ist, dass du’s nicht mitkriegst und auch keine Vorkehrungen treffen kannst, wenn irgendwas im Busch ist. Und, dass eine dir unbekannte Zahl von Leuten im Endeffekt mit deinen Daten machen können, was sie wollen. Während du bei dir zuhause (hoffentlich) so ein ganz klein bißchen Überblick darüber hast, wer ein und aus geht.

Ich denke, dass du technisch voll auf der Höhe der Zeit bist, haben hier jetzt alle mitbekommen. Daran, dass welche Cloud auch immer für den Zweck des TE praktisch der maximal mögliche Schwachsinn ist, besteht für mich trotzdem kein Zweifel.

Wie schon einmal erwähnt: onebuyone betreibt Harakiri mit seinen Daten. Eine ausschließliche Sicherung in der Cloud ist nicht der richtige Weg.
Ich kann nur von unseren Servern sprechen. Das Rechenzentrum ist das modernste hier in der Region, Tiefkeller, Zugangsschutz, Video-Überwachung, Zugang nur nach Voranmeldung, immer in Begleitung, Zugang durch 3 jeweils unterschiedlich gesicherte Zugangstüre, Plateau-Aufbau (die Serverschränke stehen also im Keller ca. 70-80cm erhöht, damit ein Wasserschaden nichts anrichten kann), vollständig klimatisierte Schränke, automatische Löschanlage (mit Gas).
Ich halte das für ziemlich sicher. Hat der Kunde ein zusätzliches Backup in seinen Wohn/Büroräumen ist er eigentlich gegen alle Gefahren gewappnet.

Gruß

Sven
- OecherWolke -
 
Die 6 GB in den Screenshots sind aber effektiv vom Router gemessene übertragene Werte.

D.h. mein Rechner ist den halben Tag beschäftigt, wenn 6 GB neue Daten anfallen, z.B. ein gerendertes Video o.ä.
Soweit ich weiß, ist in der Zeit nicht einmal ein Ruhezustand des Rechners möglich.

wenn der Rechner im Ruhezustand ist, führt er auch ansonsten keine Backups aus (ausser er unterstützt PowerNap). Der Rechner geht aber doch dann automatisch in den Ruhezustand, wenn das Backup fertig ist (je nach Einstellung).
Filmdaten sind schwierig bei der Kompression und Deduplizierung. Das stimmt. Filmdaten sind ja schon komprimiert und eine Deduplizierung greift dort auch meist nicht.

Mir reicht es schon, wenn TimeMachine die Festplatte für jeweils nur ein paar Sekunden
beschäftigt. Selbst hier kommt es manchmal schon zu Meldungen, das System kann evtl.
leicht gebremst werden (Schreibvorgänge oder Auslagerungen in Photoshop o.ä.)

Was für "alte" Rechner setzt Du denn ein, dass eine Sicherung im Hintergrund zu solchen Problemen führt? CrashPlan nutzt maximal nur einen CPU-Kern und man kann auch einstellen, dass er bei Anwesenheit des Anwenders auch nur x% der CPU-Leistung (eines Kerns!) nutzen soll. Man merkt nicht, dass das Problem im Hintergrund läuft.

Der Hinweis mit Up/Downstream ist interessant, dem werde ich einmal nachgehen, ob das
evtl. wirklich am Router liegt.

Ein Upload bremst den Download nur insoweit, dass die Bestätigungsmeldungen ("Paket korrekt empfangen") ja den Download "stören", das sind aber nur kleinste Datenmengen (ausser Deine Leitung ist nicht stabil und erzeugt viele Fehler, die einen Retransmit auslösen (also ein erneutes Senden des Pakets).

Gruß

Sven
- OecherWolke -
 
Was für "alte" Rechner setzt Du denn ein, dass eine Sicherung im Hintergrund zu solchen Problemen führt? CrashPlan nutzt maximal nur einen CPU-Kern und man kann auch einstellen, dass er bei Anwesenheit des Anwenders auch nur x% der CPU-Leistung (eines Kerns!) nutzen soll. Man merkt nicht, dass das Problem im Hintergrund läuft.

Es geht ja nicht um die CPU, sondern um die Schreibtätigkeit der Festplatte. Eine Platte
kann nicht gleichzeitig Daten schreiben und auslesen, deshalb kommt es zu Verzögerungen,
wenn z.B. TimeMachine aktiv ist und gerade eine 6 GB große PS-Datei gesichert wird.

Auch beim Crashplan Backup werden ja laufend Dateien von der Platte angefordert, d.h. der
Lesekopf ist in Bewegung (bei mechanischer Platte). Das hat Auswirkungen auf die Performance.
 
..
onebuyone ist scheinbar mit CrashPlan verheiratet ;)

svenc ich bin mit denen nicht verheirate :D(so wie Du)

..

Wie schon einmal erwähnt: onebuyone betreibt Harakiri mit seinen Daten. Eine ausschließliche Sicherung in der Cloud ist nicht der richtige Weg.
..
ich sichere auch noch auf X andere Cloud-Systeme- (dort nur nicht alles und nicht automatisch)
und lokal auf den jeden anderen Rechner(über kreuz) im LAN mit CP ein Rechner sporadisch davon über VPN in den USA-(nicht alles aber automatich)
mehr 3-2-1 geht kaum (ohne arbeit)
und auf TM nur das System

Wie hier schon geschrieben
https://www.macuser.de/forum/thema/...lchem-Format?p=8019948&viewfull=1#post8019948
bitte immer alles lesen ;)

ich sicher automatisch permanent alles und jeden Rechner und NAS bei CP --- weil ich nicht überlegen will was WICHTIG ? ist(dort spielt Platz keine Rolle und Zeit(meines Routers) spielt für mich keine Rolle),
da in X Jahre das WICHTIG wird -- was heute unwichtig ist
smile.gif


Du als Oecher Wolke kannst hier ja mal schreiben
Wieviel 2.5TB ! ( sagen wir echte 2TB? wg Deduplizierung ) gesamt Speicher
bei Euch je Monat an € ca. kosten würde ;)

soviel habe ich z.Zt.mit 5! versch. Rechner und NAS bei CP gesichert

ps
ich habe mal das wichtige fett markiert- damit das nicht "ausversehen" überlesen wird
 
Zuletzt bearbeitet:
Nur mal so, der TE ist schon seit Seite 3 raus. -> Oecher Wolke und onebuyone können den Wettstreit beenden. Es scheint ihn nicht zu interessieren.
 
das ist kein Wettstreit -- beide nutzen CP :D

evtl. interessier das hier ja auch andere ?
 
Die ultimative Lösung ist in Sicht:

Neuer Speicher soll Ende der Menscheit überdauern

Die Langzeit-Archivierung von Daten stellt weiterhin ein Problem dar, da viele Speichermedien nur über einen sehr begrenzten Zeitraum halten. Das soll eine neue Technologie nun ändern.

Wissenschaftler aus Deutschland und den Niederlanden haben ein Medium entwickelt, das Daten Millionen oder gar Milliarden Jahre vorhalten können soll. Die Informationen könnten so vermutlich noch unverändert vorhanden sein, wenn es die Menschheit überhaupt nicht mehr gibt. Das geht aus einem Forschungs-Papier des Teams von der Universität Twente in den Niederlanden und der Albert-Ludwigs-Universität Freiburg hervor.

Grundsätzlich funktioniert das Speichersystem ähnlich wie die bekannten QR-Codes. Allerdings werden diese zur Kodierung von Informationen auf einer Oberfläche eingesetzt, die sehr lange Zeiträume überdauern soll. Die Basis bildet hierbei ein 338 Nanometer dicker Layer aus Silizium-Nitrid auf einem Silizium-Wafer. Auf diesen wird wiederum eine 50 Nanometer dicke Schicht aus Wolfram aufgebracht, in die mit herkömmlichen Lithographie-Verfahren die Informationen gespeichert werden.

Die Strukturen, die die Informationen repräsentieren, setzen sich dabei aus 100 Nanometer breiten Linien zusammen, die von einem Laser belichtet werden. Nach dem Schreiben der Daten sorgt ein weiterer Silizium-Nitrid-Layer für den Schutz der Wolfram-Schicht.

Die eingesetzten Materialien sind gegenüber Umwelteinflüssen äußerst widerstandsfähig. So liegt beispielsweise der Schmelzpunkt von Silizium-Nitrid bei rund 1.900 Grad Celsius, der von Wolfram sogar fast bei einer doppelt so hohen Temperatur. Das Speichermedium würde so also beispielsweise auch überleben, wenn das Gebäude zu ihrer Aufbewahrung einem Feuer zum Opfer fällt. Verschiedene Tests, mit denen Belastungen und lange Zeiträume simuliert wurden, bestätigten die Widerstandskraft des Speichermediums. Auch nach extremen Belastungen, die einen Zeitraum von Millionen von Jahren entsprechen, waren selbst mit einfachsten Mitteln nur 7 Prozent der Informationen nicht lesbar - ein Wert, der sich deutlich reduzierte, wenn man bessere Technologien und Algorithmen einsetzte.

Entwickelt wurde die Speichertechnologie für das Human Document Project. Dabei handelt es sich um eine Initiative verschiedener europäischer Institutionen, in deren Rahmen ein digitales Archiv geschaffen werden soll, das wichtige Informationen über die Menschheit bis zu einem Zeitraum aufbewahrt, in der unsere Art den Planeten vielleicht schon verlassen hat oder ausgestorben ist.

Quelle
 
Es geht ja nicht um die CPU, sondern um die Schreibtätigkeit der Festplatte. Eine Platte
kann nicht gleichzeitig Daten schreiben und auslesen, deshalb kommt es zu Verzögerungen,
wenn z.B. TimeMachine aktiv ist und gerade eine 6 GB große PS-Datei gesichert wird.

Auch beim Crashplan Backup werden ja laufend Dateien von der Platte angefordert, d.h. der
Lesekopf ist in Bewegung (bei mechanischer Platte). Das hat Auswirkungen auf die Performance.

Hi,

Du wirst diese Zugriffe kaum bemerken. JEDE Backup-Lösung wird in irgendeiner Form Deine Festplatte "belasten", irgendwie müssen die Daten gelesen werden.
Du kannst bei CrashPlan aber z. B. auch festlegen, dass dies nur in bestimmten Zeitfenstern stattfinden darf...

Gruß

Sven
- OecherWolke -
 
Habe nun nicht alles gelesen, aber für langfristige Sicherungen würde ich Amazon's Glacier empfehlen!
 
svenc ich bin mit denen nicht verheirate :D(so wie Du)

wir verdienen unser Geld mit CrashPlanPROe, Deine "Verherrlichung" des USA-Angebots ist schon grenzwertig...
Man könnte meinen, Du bekommst Provision ;)

ich sichere auch noch auf X andere Cloud-Systeme- (dort nur nicht alles und nicht automatisch)
und lokal auf den jeden anderen Rechner(über kreuz) im LAN mit CP ein Rechner sporadisch davon über VPN in den USA-(nicht alles aber automatich)
mehr 3-2-1 geht kaum (ohne arbeit)
und auf TM nur das System

hört sich sehr kompliziert an... klingt nicht wirklich durchdacht... sorry
"12 Backups" ist nicht unbedingt besser. Zwei gute Backups reichen ;)
Hast Du schon mal den "worst case" durchgespielt? An wie viel Stellen müsstest Du denn Deine Daten "zusammensammeln"?
CrashPlan USA liefert Dir keine Festplatte mit Deinen Backup-Archiven, wie lange dauert der Download von 2TB über die geschwindigkeitsreduzierten Leitungen von CrashPlan, USA?

Wie hier schon geschrieben
https://www.macuser.de/forum/thema/...lchem-Format?p=8019948&viewfull=1#post8019948
bitte immer alles lesen

ich sicher automatisch permanent alles und jeden Rechner und NAS bei CP --- weil ich nicht überlegen will was WICHTIG ? ist(dort spielt Platz keine Rolle und Zeit(meines Routers) spielt für mich keine Rolle),
da in X Jahre das WICHTIG wird -- was heute unwichtig ist
smile.gif


Du als Oecher Wolke kannst hier ja mal schreiben
Wieviel 2.5TB ! ( sagen wir echte 2TB? wg Deduplizierung ) gesamt Speicher
bei Euch je Monat an € ca. kosten würde

bei uns gibt es halt auch professionellen Support, persönliche Beratung, Speicherstandort Deutschland, deutsche Datenschutzgesetze, keinen NSA-Zugriff, usw..
Wir beraten die Kunden halt auch, welche Daten sie wie sichern sollten. Datenklassifizierung ist das Stichwort.

Preise gibt es für jedermann hier zu sehen: www.oecherwolke.de/Konditionen

Wir haben Kunden, die 8TB bei uns sichern. Denen ist es das wert. Ein Datenverlust kostet deutlich mehr.
Du vergleichst Aldi mit dem Feinkostladen ;)
Du bist mit CrashPlan, USA zufrieden, glücklich, etc.. das gilt aber nicht für jeden. Wir haben genügend Kunden für die Datenschutz ein sehr hohes Gut ist. Denen ist es nicht erlaubt, Daten ausserhalb Europas zu speichern, einige Kunden haben sogar Verträge, die eine Speicherung ausserhalb Deutschlands untersagt.

Desweiteren sind unsere Preise mehr als gut, wie Du hier sehen kannst: http://www.online-backup-info.de/bl...kup-anbieter-speichern-in-der-bundesrepublik/

Gruß

Sven
- OecherWolke -
 
Habe nun nicht alles gelesen, aber für langfristige Sicherungen würde ich Amazon's Glacier empfehlen!

Hi Dominic,

das ist grundsätzlich korrekt. Glacier ist ein Archivierungsdienst. Es bleibt das Problem des Datenstandorts und auch der unverschlüsselten Übertragung. Auf den Glacier-Servern werden die Daten zwar verschlüsselt, die Übertragung erfolgt aber halt "offen". Das bereitet uns Bauchschmerzen.

Gruß

Sven
- OecherWolke -
 
Zurück
Oben Unten