macOS Sierra Prüfsummenverfahren MD5 für Heimgebrauch "noch" ausreichend?

S

Sharptype

Aktives Mitglied
Thread Starter
Dabei seit
23.05.2015
Beiträge
1.181
Reaktionspunkte
112
Moin zusammen,

ich teste regelmäßig Files bei mir über die MD5-Prüfsumme. Das Verfahren ist ja schon alt und es wurden Kollisionen nachgewiesen.

Sollte man auch für den Heimgebrauch eher ein Verfahrenswechsel anstreben oder sind die Kollisionen in diesem Bereich unproblematisch?

Danke für eure Meinung :)
 
Wo liegt der Aufwand SHA1 zu verwenden?
 
Wo liegt der Aufwand SHA1 zu verwenden?
Wo liegt das Problem einfach auf die Frage zu antworten? :D

Aber um auf deine Frage zu antworten: Es gibt ein paar Tools (teils selbstprogrammiert) in dem Workflow, die dann angefasst und teils auch ersetzt werden müssten, was beides gewissen Aufwand bedarf, den ich sparen kann, wenn Kollisionen im Heimgebrauch absolut unwahrscheinlich sind. Kein Aufwand, wenn nicht notwendig :cool:
 
Dann lass es. Ich würde MD5 nicht mehr nutzen. Die Wahrscheinlichkeit ist klein, aber eben da.
 
das bedeutet, ich betrachte das als einen durchaus gelungenen witz.

wenn bei einem prüfverfahren fehler bekannt sind, wie kannst du dir sicher sein, dass solche fehler bei dir, wenn auch nach deiner aussage nur im privaten als dateiprüfsicherung eingesetzt, nicht auftreten und welchen sinn macht dann ein einsatz solcher verfahren. was nützt hier eine wahrscheinlichkeit, wenn es z.b. um 100-prozentige dateikorrektheit geht, weil ansonten das programm nicht mehr läuft.
 
  • Gefällt mir
Reaktionen: dabegi
Ich wuerde die Fragen so beantworten:

Wenn die Tools nur intern in nicht sicherheits-relevanten Bereichen eingesetzt werden, dann spielen die Sicherheitsprobleme ja keine Rolle.

Bleiben die Fragen die uns tagtaeglich begleiten:

* Was ist der Aufwand alle Systemteile auf einen neueren Hash umzustellen?
* Was ist der Worst-Case Schaden wenn eine Kollision auftritt (aka der Nutzen)?

Das gegeneinander aufwiegen und entsprechend die Prio fuer diesen Task setzen.
 
Ist so etwas für den Heimgebrauch (was ja ein wesentlicher Teil der Frage ist) überhaupt notwendig?
 
ich teste regelmäßig Files bei mir über die MD5-Prüfsumme. Das Verfahren ist ja schon alt und es wurden Kollisionen nachgewiesen.

Sollte man auch für den Heimgebrauch eher ein Verfahrenswechsel anstreben oder sind die Kollisionen in diesem Bereich unproblematisch?
Was genau meinst du mit Heimgebrauch? Willst du einfach kopierte Dateien auf ihre Integrität prüfen oder willst du überprüfen ob jemand dir eine manipulierte Datei untergeschoben hat? Wie viele Dateien sind es? Wie groß sind deine Dateien?
 
Was genau meinst du mit Heimgebrauch? Willst du einfach kopierte Dateien auf ihre Integrität prüfen oder willst du überprüfen ob jemand dir eine manipulierte Datei untergeschoben hat? Wie viele Dateien sind es? Wie groß sind deine Dateien?
Ich prüfe meine eigenen kopierten Dateien (Bilder, Videos von der Kamera (max. 300MB) und einige Dokumente). :)
 
naja, ist die frage wer da deine dateien kompromittieren sollte.
zum testen, ob eine datei fehlerhaft ist, reicht md5 immer noch aus.
ein auftretender fehler dürfte kaum zu der gleichen checksumme führen.
alternativ kannst ja das ganze mit einem zweiten hash erweitern.
 
Für reine Überprüfung von nicht allzu großen Dateien reichen doch selbst einfache Verfahren. md5 ist halt nur insofern unsicher als es rein theoretisch möglich wäre manipulierte Dateien mit gleichem hash unterzuschieben.

Hat jemand Informationen/Berechnungen wie der Zusammenhang zwischen Dateigröße und Wahrscheinlichkeit, dass Fehler nicht bemerkt werden, ist - sprich dass Fehler auftreten und man sie an der Prüfsumme nicht bemerkt? Immerhin ist es ja eine einfache mathematische Abbildung: {0,1}^* nach {0,1}^n wobei * >> n ist. Da sollte es doch schon einen Unterschied ausmachen ob ich Daten im kB/MB-Bereich oder Dateien im GB-Bereich anschaue.
 
  • Gefällt mir
Reaktionen: Sharptype
Hat jemand Informationen/Berechnungen wie der Zusammenhang zwischen Dateigröße und Wahrscheinlichkeit, dass Fehler nicht bemerkt werden, ist - sprich dass Fehler auftreten und man sie an der Prüfsumme nicht bemerkt?
Das würde mich auch sehr interessieren!

Prinzipiell könnte ich auf sha1 wechseln. Ich nutze "md5summer" (http://www.md5summer.org), um die MD5 Dateien hinterher zu überprüfen. Das Tool nutze ich nur, weil die Ergebnisansicht nach Fehlern gefiltert werden kann. Dafür bräuchte ich dann eine Alternative, die ich noch nicht gefunden habe. Die meisten Tools prüfen nur einzelne Dateien und keine gesamten Ordnerstrukturen mit vielen Files und können die Ergebnisse (warum auch immer) nicht filtern nach Fehlern.
 
gibt's md5summer denn für macos?
wir hatten hier auch irgendwo schon mal das thema verzeichnisse prüfen. so ca. in scripting oder unix und ich denke, ich dürfte da auch auf hashdeep hingewiesen haben.
 
Jau, hört sich auch so an für mich. Ich glaube ich setz mal ein entsprechendes Thema auf, falls die Suche nichts ausspuckt.
Danke euch!
 
Ich finde die Frage leicht falsch gestellt! Gegen MD5 als Prüfsumme spricht nichts - das kann man machen. Das MD5 nicht das Optimum ist und schneller gleiche Schlüssel zu differenten Dateien liefert ist bekannt. Eine Kompensation mit SHA1 ist leicht möglich und reduziert diesen Fehler deutlich. Da der TE vor dem Aufwand auf SHA1 umzustellen ganz offenbar zurückschreckt, stellt sich doch die Frage: wie entscheidend ist für den TE das es keine Doubletten gibt und kann er mit den Konsequemzem des größeren Fehlerbereiches leben oder eben nicht. Das aber macht man mit sich selbst aus, da hilft vermutlich kein thread ;)
 
  • Gefällt mir
Reaktionen: Sharptype
Zurück
Oben Unten