2 TB mit Nullen überschreiben - Dauer?

Also ich brauch kein 7faches, es ist aber die Stufe über 1x im FPDP.
(Ich hätte vermutlich 2x gewählt)
Stimmt, doch xf..:D

Naja, die Lösung via Terminal ist perfekt.:thumbsup:
Das Überschreiben dauert echt saulange, in 12 Stunden hat er jetzt 800 GB geschafft..:eek:
(Wie Theorie und Praxis sich doch unterscheiden können..)

Aber so kann ich dann ja entspannt stoppen und nach Windows wieder weitermachen, diese kleine Sicherheitsmaßnahme ist ja 0 Aufwand, bevor die Platte zurückgeht.

Vielen Dank nochmal an alle.:cake:
 

Ja, ich lasse ja jetzt wie aus Tzunamis Beschreibung mit dem Terminalbefehl auf die gelöschte (ohne Nullen) Platte ein 2000GB großes Textfile schreiben, das ich ab und zu abbreche und dann später weiter anlege.:D
(Ich würds ja gerne mal mit TextEdit öffnen:hehehe:)
(Stand aktuell: 14 h, 1100 GB)
 
...und das ganze dann ZIPen und an die Kollegen schicken. :p

Wenn er statt Zufallszahlen (wie von mir empfohlen) nur Nullen reinschreibt, dann dürfte das File auch höchst kompressibel sein... ;)
Und beim Entpacken explodiert dann die Festplatte... :D

warum so umständlich?

Nimm einfach 42.zip. Ist schlappe 42 KB groß und ergibt beim entpacken 4,5 PetaBytes.

Also, widerstehe der Versuchung das Teil herunter zu laden und mal testweise drauf zu klicken :D
 
:faint:

The file contains 16 zipped files, which again contains 16 zipped files, which again contains 16 zipped files, which again contains 16 zipped, which again contains 16 zipped files, which contain 1 file, with the size of 4.3GB.

So, if you extract all files, you will most likely run out of space :)

16 x 4294967295 = 68.719.476.720 (68GB)
16 x 68719476720 = 1.099.511.627.520 (1TB)
16 x 1099511627520 = 17.592.186.040.320 (17TB)
16 x 17592186040320 = 281.474.976.645.120 (281TB)
16 x 281474976645120 = 4.503.599.626.321.920 (4,5PB)

Nächstes Mal dann..:crack:
 
Du darfst da den psychologischen Effekt nicht vergessen, 7x Überschreiben MUSS doch gut sein, wo es doch so lange braucht - das beruhigt doch ungemein; noch mehr hilft es dabei dann, wenn man beim Löschen das hier aufsetzt, nicht dass da durch den starken Magnetfluss beim Löschen möglicherweise Daten von der HD ins Gehirn diffundieren.


P.S.:




Also doch die xfö-Photos...

Das hat nichts mit Psychologie zu tun. Diese Löschverfahren sind alt und wurden zu einer Zeit entwickelt wo ein mal löschen eben nicht gereicht hat um die Daten vollständig zu vernichten. Disketten müssen immer noch mehrfach mit Zufallsdaten beschrieben werden um die „Restmagnetisierung“ der alten Daten zu beseitigen.
 
  • Gefällt mir
Reaktionen: doger und LosDosos
Das mehrfache überschreiben (nicht nur mit Nullen sondern auch mit binären Mustern) geht auf eine veraltete Spezifikation (letzter update 2007) der Amerikanischen National Security Agency zurück
http://www.oregon.gov/DAS/OP/docs/policy/state/107-009-005_Exhibit_B.pdf?ga=t

Apple referenziert jedenfalls die oben verzinkte Spezifikations Matrix fuer Datentraeger DoD 5220.22-M
http://support.apple.com/kb/HT3680?viewlocale=de_DE&locale=de_DE

Hier wird die Gutmann Methode (35 x Ueberschreiben) beschrieben
http://en.wikipedia.org/wiki/Gutmann_method

Herr Gutmann selbst sagt dazu:

In the time since this paper was published, some people have treated the 35-pass overwrite technique described in it more as a kind of voodoo incantation to banish evil spirits than the result of a technical analysis of drive encoding techniques. As a result, they advocate applying the voodoo to PRML and EPRML drives even though it will have no more effect than a simple scrubbing with random data. In fact performing the full 35-pass overwrite is pointless for any drive since it targets a blend of scenarios involving all types of (normally-used) encoding technology, which covers everything back to 30+-year-old MFM methods (if you don't understand that statement, re-read the paper). If you're using a drive which uses encoding technology X, you only need to perform the passes specific to X, and you never need to perform all 35 passes. For any modern PRML/EPRML drive, a few passes of random scrubbing is the best you can do. As the paper says, "A good scrubbing with random data will do about as well as can be expected". This was true in 1996, and is still true now.

MFM heisst Modified Frequency Modulation und wurde benutzt um singel density Floppy Disks zu beschreiben:

MFM is a modification to the original FM (frequency modulation) scheme for encoding data on single-density floppy disks and some early hard disk drives. Due to the minimum spacing between flux transitions is a property of the disk and head design, MFM, which guarantees at most one flux transition per data bit, can be written at higher density than FM, which can require two transitions per data bit. It is used with a data rate of 250 – 500 kbit/s (500 – 1000 kbit/s encoded) on industry standard 5¼" and 3½" ordinary and high density diskettes. MFM was also used in early hard disk designs, before the advent of more efficient types of Run Length Limited (RLL) coding. Except for the steadily disappearing 880 kiB and 1.4 MiB floppy disk formats, MFM encoding is obsolete.
 
Zuletzt bearbeitet:
Zurück
Oben Unten