ich beschreibe gerade ne 160GB festplatte mit dem Befehl:
dd if=/dev/urandom of=/dev/hda
Das ist so falsch, oder sagenwirmal: Unergonomisch.
Mit obigen Parametern fliesst der Datenstrom Byte für Byte einzeln, und das dauert *ewig*.
Du musst eine Blockgröße angeben, dann geht das fix. Im Idealfall würdest du die genaue logische Blockgröße der Platte ermitteln, aber das ist in der Praxis und dann noch für einen einmaligen Vorgang völlig unnötig. In praktisch allen Fällen reicht es, einfach ordentlich dicke Pakete zu machen statt die einzelnen Bytes tröpfeln zu lassen.
Die Blockgröße gibt man mit „bs“ an, also ergänze obiges z.B. um
bs=65536
für 64KB-Pakete.
Im Gegensatz zum Mac-dd versteht das GNU-dd unter Linux auch Einheiten, also z.B „1M“ für 1 Megabyte.
Der nächste Punkt wäre:
Du überschreibst mit Zufallszahlen? Wieso? Löschen ist löschen. 1 6 3 8 2 5 ist ebenso „gelöscht“ wie 0 0 0 0 0 0 oder 1 1 1 1 1 1. Das mag bei einer handvoll Zufallszahlen egal sein, aber du zwingst den Rechner, sich mehrere Milliarden Zufallszahlen auszudenken, und das ist Arbeit. Verwende statt urandom einfach null.
Zum Thema „ist das dann wirklich gelöscht“: Ja. Definitiv.
Es geistern Mythen und Sagen durch das Netz, der Platteninhalt ließe sich aus Restladungen Teilrekonstruieren, oder die NSA könne… …mal abgesehen davon, dass deine Plattte kaum bei der NSA landen wird, beziehen sich diese Geschichten, man müsse fünf, zehn, zwanzig mal löschen auf Hardware aus den 70ern. Wenn Du drübernullst, siehst Du deine Daten erst beim Jüngsten Gericht wieder. ;-)
Gruß,
Jörg