Kann man ZIPs vertrauen? Stichwort: Endlagerung

Lincoln

Lincoln

Mitglied
Thread Starter
Dabei seit
09.02.2012
Beiträge
35
Reaktionspunkte
1
Guten Abend,

Habe es schon öfter erlebt, das ein Zip korrupt war. Kennt das jemand?
Z.B. äußert sich das dadurch, dass ich ein Zip öffne und sich ein neues Zip offenbart. Das geht immer so weiter. Das Matrjoschka-Prinzip. Nur ohne Ziel.

Meist sind diese Zips allerdings von Servern heruntergeladen, aus e-Mails und auch eigentlich immer auf anderen Rechnern erstellt.

Wenn ich selber Ordner komprimiere, kann ich diesen Archiven dann vertrauen?

Ich frage deshalb, weil ich meine Dokumente und Projekte immer Manuell mit Versionierung Backuppe um einen dokumentiertes Archiv zu haben. Dies wird dann alles nochmal per TimeMachine gespiegelt.
Allerdings häuft sich das alles an und wann oder ob ich jemals wieder daraufzugreife steht in den Sternen. Deshalb will ich die Ordner in mehreren Zipps backuppen, was in der Menge auf jeden Fall etwas bringt.
Aber wenn ich in acht Jahren auf mein Website Backup vom April 2004 zurückgreifen will, dann will ich nicht feststellen, dass das Zip kaputt ist.

Was ist eure Meinung?
 
Nein, kannst du nicht. Eigentlich nie.
Nach dem verpacken nochmals entpacken und die Prüfsumme vergleichen, dann hast du Sicherheit.
 
Kein Witz: .tar.gz
Gibt's auf tausenden Systemen, die man sich notfalls als Minimalsystem in einer VM hochziehen kann.
ZIP hat Varianten, die keiner mehr überblicken kann.
Ein .tar.gz kannst Du in 100 Jahren noch auf 'ner Linux Karre entpacken.
Du kannst auch mit gzip gepackte Dateien in ein Tar Archiv packen.
 
  • Gefällt mir
Reaktionen: redweasel
Kein Witz: .tar.gz
Gibt's auf tausenden Systemen, die man sich notfalls als Minimalsystem in einer VM hochziehen kann.
ZIP hat Varianten, die keiner mehr überblicken kann.
Ein .tar.gz kannst Du in 100 Jahren noch auf 'ner Linux Karre entpacken.

Vielen Dank, ich werde mir die .tar.gz-Geschichte mal angucken.

Gute Nacht.
 
Das einzige freie Programm, was ich auf die schnelle gefunden habe ist GUI tar. Hat jemand Erfahrungen damit? Gibt es Programme bei denen man die Stärke der Kompression einstellen kann (geht das bei tar.gz. überhaupt?)?
 
Die stärke der Kompression ergibt sich daraus, wie weit das Kompressionsprogramm zurückschaut um gleiche Sequenzen zu finden.
Bei gzip geht das von 1 bis 9. Der Algorithmus bleibt dabei derselbe.

Um ehrlich zu sein, würde ich mir an Deiner Stelle was in Shell Scripten zusammenbauen anstatt eine GUI zu suchen.
Aber jeder so wie er mag.
 
Habe es schon öfter erlebt, das ein Zip korrupt war. Kennt das jemand?

Ja kenne ich. Entweder hat z.B. der Uploader etwas nicht vernünftig gemacht oder durch einen fehlerhaften Download ist das Ganze nicht mehr korrekt usw. Kann schon mal passieren. Nicht nur bei ZIP-Dateien. Und die Bits bzw. das Archiv ändert sich ja nicht einfach so, wenn die Pladde, Arbeitsspeicher etc. in Ordnung sind. Und natürlich gibt es auch mitunter Inkompatibilitäten zwischen verschiedenen Packprogrammen. Das heißt dann natürlich nicht, dass die Datei futsch ist, sondern nur mit einer bestimmten Version entpackt werden kann.
 
Zuletzt bearbeitet:
Das einzige freie Programm, was ich auf die schnelle gefunden habe ist GUI tar. Hat jemand Erfahrungen damit? Gibt es Programme bei denen man die Stärke der Kompression einstellen kann (geht das bei tar.gz. überhaupt?)?

Wozu extra eine GUI runterladen? Über das Terminal unterstützt OS X tar nativ.

Alle settings kannst du mit "man tar" abrufen, oder hier nachschauen.
 
Habe es schon öfter erlebt, das ein Zip korrupt war. Kennt das jemand?
Das ist jetzt aber nicht unbedingt eine Frage des ZIP-Files sondern des Datenträgers auf dem es gespeichert wurde...
 
vielleicht solltest du eher rar mit recovery records bzw rev files nehmen?
falls dann ein archiv defekt ist, kannst darüber die daten rekonstruieren...
 
Kein Witz: .tar.gz
Ein .tar.gz kannst Du in 100 Jahren noch auf 'ner Linux Karre entpacken.

DAS wage ich zu bezweifeln. In 100 Jahren wird sich keiner mehr an Linux erinnern und welches Format heute auch immer Stand der Technik sein mag - in 100 Jahren wird es kaum jemanden geben, der damit was anfangen kann.
Bei uns im Firmenkeller steht eine 17 Jahre alte Solaris Büchse und die wird schon keiner mehr ans laufen bringen. Die Handbücher sind weg und die fehlende serielle Maus ist leichter zu ersetzen als der Monitor mit mir unbekanntem Spezialstecker - abgesehen von dem Dialekt, den keiner mehr kennt....

Wenn die Daten so wichtig sind, warum dann überhaupt eindampfen? Die wirklich wichtige Daten sind bei mir nicht komprimiert gesichert. Dafür stehen hier auch einige TB auf Festplatten rum.
 
DAS wage ich zu bezweifeln. In 100 Jahren wird sich keiner mehr an Linux erinnern und welches Format heute auch immer Stand der Technik sein mag - in 100 Jahren wird es kaum jemanden geben, der damit was anfangen kann.
Bei uns im Firmenkeller steht eine 17 Jahre alte Solaris Büchse und die wird schon keiner mehr ans laufen bringen. Die Handbücher sind weg und die fehlende serielle Maus ist leichter zu ersetzen als der Monitor mit mir unbekanntem Spezialstecker - abgesehen von dem Dialekt, den keiner mehr kennt....
Was hat die Hardware mit tar.gz zu tun oder sonstiger Software? Solaris kann immer noch tar, hat sogar ein eigenes.
Wenn die Daten so wichtig sind, warum dann überhaupt eindampfen? Die wirklich wichtige Daten sind bei mir nicht komprimiert gesichert. Dafür stehen hier auch einige TB auf Festplatten rum.

So würde ich das auch vorschlagen. Eher wird die Hardware inkompatibel sein, wenn du die Daten nicht ständig aktualisiert auf neuen Medien, als das du dir gedanken um das Dateiformat machen solltest, ..
Ich hab auch alles unkomprimiert auf Festplatten, und dank ZFS ist das sogar mit Checksum abgesicht. Bringt mir zwar auch nicht unbedingt was, wenns kaputt ist, aber ich weiß immerhin, dass es kaputt ist ;)

Bei den TB/EUR Preis mach ich mir da auch keine Gedanken drüber..
 
Wenn die Daten so wichtig sind, warum dann überhaupt eindampfen? Die wirklich wichtige Daten sind bei mir nicht komprimiert gesichert. Dafür stehen hier auch einige TB auf Festplatten rum.

Das hab ich mich auch gefragt. Die Mühe des Zippens kostet mehr als das bisschen
Speicherplatz, das es bringt.
 
Was hat die Hardware mit tar.gz zu tun oder sonstiger Software? Solaris kann immer noch tar, hat sogar ein eigenes.


So würde ich das auch vorschlagen. Eher wird die Hardware inkompatibel sein, wenn du die Daten nicht ständig aktualisiert auf neuen Medien, als das du dir gedanken um das Dateiformat machen solltest, ..
Ich hab auch alles unkomprimiert auf Festplatten, und dank ZFS ist das sogar mit Checksum abgesicht. Bringt mir zwar auch nicht unbedingt was, wenns kaputt ist, aber ich weiß immerhin, dass es kaputt ist ;)

Bei den TB/EUR Preis mach ich mir da auch keine Gedanken drüber..

Von Hardware sollte gar nicht primär die Rede sein. Linux und sämtliche anderen BS wird es dann schon lange nicht mehr geben und vermutlich wird es den Komprimierungstools nicht anders ergehen.
Mir fehlt es etwas an der notwendigen Kreativität, mir vorzustellen, wie wir in 100 Jahren mit Daten umgehen und auch mit was für Hardware wir das tun werden.....
 
Die Frage, ob Dateien in 100 Jahren noch gelesen werden können, betrifft sowohl Hardware als auch Software.

Zuerst einmal muss das Medium, auf dem die Dateien liegen diese Zeitspanne überdauern, ohne dass das Medium an sich beschädigt wird oder die Daten darauf nicht mehr zu lesen sind (Wie beständig sind die Daten auf dem Medium?). Dann muss das Medium an sich noch von anderer Hardware aus korrekt anzusprechen sein, damit die Daten korrekt ausgelesen werden können (Wie muss das Medium mit aktueller Hardware verbunden werden? Was muss ich tun, um die Daten auf die neue Hardware zu übertragen?). Dann kommt die Frage, können die zukünftigen Computer noch etwas mit dem alten Dateisystem anfangen (ist das überhaupt noch bekannt) und ist noch der Kompressionsalgorithmus, mit dem man die Daten gespeichert hat. Wenn beides bekannt ist, kann man theoretisch Software erstellen, sodass die neue Hardware mit dem Dateisystem umgehen kann und die Daten dekomprimieren kann. Und zu guter letzt stellt sich die Frage, kann ich mit den Daten überhaupt noch etwas anfangen? Denn natürlich werden wahrscheinlich auch die Dateiformate usw. alle veraltet sein und kaum (wahrscheinlich keine, wenn man mal sieht, wie häufig heute schon Dateiformate gewechselt oder geändert werden und dass aktuelle Software häufig nur aktuelle Formate beherrscht) noch von Programmen korrekt interpretiert werden können. D.h. um mit den Daten arbeiten zu können, braucht es Konverter oder entsprechende Importalgorithmen, die auch erstmal programmiert werden müssen. Da die Nachfrage nach solcher Software aber verschwindend gering ist, wird man da entsprechend selbst tätig werden müssen (entweder selbst programmieren oder für viel Geld programmieren lassen).

Kurzum, meine Empfehlung: Wenn Daten wirklich lange bestehen sollen (mit der Möglichkeit diese auch noch verwenden zu können), bleibt eigentlich nur ein Weg, der folgendermaßen aussieht: Regelmäßiges Kopieren der Daten auf aktuelle Hardware, verhindert Hardwareinkompatibilitäten, wobei Kopierfehler vermieden werden müssen (Stichwort: Prüfsummen). Und außerdem müssen die gespeicherten Daten von Zeit zu Zeit in aktuellere Dateiformate konvertiert werden, wobei das spätestens dann geschehen sollte, wenn das alte Dateiformat droht "auszusterben" und noch vernünftige Programme vorhanden sind, die in ein aktuelles Format konvertieren. Anders wird es nicht funktionieren.
 
Zurück
Oben Unten