Time Capsule 5.Gen "defekte Festplatten"

brainstuff

Mitglied
Registriert
20.05.2019
Beiträge
78
Vielleicht ist das ja gewollt, dass man Daten (zB als Zeitzeugnisse) für zukünftige Generationen sichert
Nochmal, deswegen macht man ja ein Backup
Da geht es nicht um wirkliche Denkmalgeschützte Daten (wie Bilder vom Kaiser), sondern um ganz aktuelle Daten die schon nach ein paar Minuten "reif fürs Museum" sind. Zum Beispiel ist eine Adressen Datenbank schon nach ein paar Minuten, wenigstens teilweise, "Schrott von gestern".

K.A. was Du damit meinst,
Wenn jemand sensible Daten hat, ob wenig oder viel, muss er diese entsprechend gegen Zugriff Dritter absichern.
"Verstecken" wäre jetzt nicht die Methode meiner Wahl...
Je größer eine Datei, ein Ordner, eine Datensammlung, ein Laufwerk,... ist, um so schneller wird es gefunden. Das ist wie beim Scheißhaufen den die Kuh, vom Nachbarn in Deinen Garten scheißt: den findest Du viel eher, wie die Scheißhäufen, von den 500 Fliegen, die auf die Kuh scheißen.

Auch wenn Du Daten verschlüsselst, ist es leichter, die zu entschlüsseln, wenn man sie finden kann und wenn die verschlüsselten Daten, sehr umfangreich sind.

Es ist zum Beispiel, ein totaler Unfug, wenn man ein ganzes Laufwerk, mit einem Betriebssystem verschlüsselt. Das ist es ultra einfach den "Schlüssel" zu finden.

Auch Banken in der Schweiz, haben ihre Kunden Jahrzehnte lang mit einem Zugangscode zum Internet Banking betrogen, den jeder Depp "entschlüsseln" kann, wenn er das will.

Jeder, der sich mit Sicherheit in der Informatik befasst, muss lernen, dass da fast nichts linear zu beurteilen ist.

Mit anderen Worten: wenn Du auf die Schaltfläche "JA" klickst, kann das vom Computer als "NEIN" ausgelegt werden. Nichts ist unbedingt so, wie man das hofft. Das ist bei der Informatik eine absolute Krankheit.

Wie ich schon schrieb, - ja, selbstverständlich gibt es keine 100% Sicherheit, aber mit entsprechendem Aufwand kann man Risiken entsprechend verringern.
Die Risiko/Wahrscheinlichkeits-Analyse und welcher Aufwand einem das Wert ist, das zu managen, kann/sollte jerder für sich machen
Dabei muss der Nutzer aber auch Parameter berücksichtigen, die er gar nicht kennt und die er nicht verstehen kann/will. Wenn man zum Beispiel, von einer 100 Gb Festplatte 100 Gb retten muss, dann geht das ca 10 Mal schneller, wie wenn man von einer 1 TB Festplatte 1 TB Daten retten muss ... deswegen kann man eine große Festplatte weniger sicher retten, wie eine kleine. ... man hat einfach vielleicht viel weniger Zeit, wie man dazu braucht.

brainstuff
 

brainstuff

Mitglied
Registriert
20.05.2019
Beiträge
78
zu #61

Selten so viel Falsches mit so einem Unterton der Überzeugung vorgetragen bekommen…
Bitte erkläre mir, mit einfachen Worten, was da falsch sein soll ... ich bin zwar Professor an einer sehr bekannten High-Tech Universität, aber ich leide, schon seit ewigen Zeiten, an einer hochgradigen "Begeisterungsstörung", die dazu führt, dass ich für Leute, die an Hirngespinste glauben, keinerlei Verständnis aufbringen kann.

Die Tatsache, dass Du und viele Andere nicht in der Lage seid, komplexe Parameter zu berücksichtigen und nur in die falsche Richtung denkt, ist leider keine Ausnahme, sondern das führt dazu, dass wir jetzt generell immer mehr im Dreck sitzen.

Ein guter Freund von mir, hat seine high-tech Alpen Hütte, bei einem Brand verloren, weil die Feuerwehr erst einmal Schneeketten aufziehen und Schlauchverlängerungen einkaufen musste, statt die brennende Hütte zu löschen.

In unserer augenblicklichen "Pandemie-Kriese", führt die absolute Dämlichkeit der Menschen auch dazu, dass hunderte von Menschen sterben müssen, weil wir erst die administrativen Belange bearbeiten, dann testen, dann dumm schwätzen und erst dann, wenn der Patient schon fast verreckt ist, die Maßnahmen ergreifen, die nötig sind.

Bei allem, was man tut, muss man zuerst das Wichtigste tun. Wenn eine Festplatte dabei ist, kaputtzugehen muss man SOFORT, möglichst viele, Daten retten. Leute, die eine am kaputtgehende Festplatte zuerst noch testen, gehören in die Klapsmühle.

Datenrettung ist ein Problem, wie das Retten von Flüchtlingen, die im Mittelmeer versaufen: die Frau Rakete, kann dort nicht zuerst abklären, ob diese Menschen nicht vielleicht noch alleine nach Europa schwimmen können, sondern sie muss die retten, die noch nicht abgesoffen sind.

Dass meine Organisation dafür sorgen will und wird, dass die Flüchtlinge gar nicht erst an das Mittelmeer laufen/fahren müssen, darf kein Grund, für die Frau Rakete, werden, dass sie dann die Leute, die dann doch noch im Mittelmeer "schwimmen" gehen, verrecken lässt.

brainstuff
 

Macschrauber

Aktives Mitglied
Registriert
08.02.2014
Beiträge
9.216
Ich glaube ich muss dir nicht beweisen dass da einen Haufen Unsinn drin stand, wie zum Beispiel dass sich digitale Kopien abnutzen…

…und ich glaube auch dass du dir hier nicht die Sporen verdient hast meine Kompetenz in Frage zu stellen nach all dem wirren Zeug was du hier so geschrieben hast.

entweder Deine Kompetenz hat sich im Laufe des Lebens abgenutzt oder du hast massive Schwächen das schriftlich darzulegen.
 

BSDheld

Mitglied
Registriert
27.01.2009
Beiträge
747
Auch wenn Du Daten verschlüsselst, ist es leichter, die zu entschlüsseln, wenn man sie finden kann und wenn die verschlüsselten Daten, sehr umfangreich sind.

Es ist zum Beispiel, ein totaler Unfug, wenn man ein ganzes Laufwerk, mit einem Betriebssystem verschlüsselt. Das ist es ultra einfach den "Schlüssel" zu finden.
Sorry, aber das ist Käse. Die Sicherheit verschlüsselter Daten hängt vom verwendeten Verschlüsselungsalgorithmus und der verwendeten Schlüssellänge ab, egal ob man die Daten findet oder nicht. Wenn man verschlüsselte Daten findet, kann es in manchen Ländern, die es mit Bürgerrechten nicht so genau nehmen, allerdings für den Eigentümer, sagen wir mal unangenehm werden. Das ist aber ein anderes Thema.

Der Schlüssel sollte natürlich mit einer sehr guten Passphrase verschlüsselt sein, damit steht und fällt die Sicherheit. Es ist egal, ob man den Schlüssel findet oder nicht, solange die Passphrase gut ist.

Es macht gerade Sinn, ein komplettes Laufwerk mit einem OS zu verschlüsseln und den freien Speicher einmal mit Zufallszahlen zu füllen, damit alle Bereiche der SSD/HDD mit verschlüsselten Daten beschrieben werden. Das erschwert es einem Angreifer, die interessanten Daten auf dem Datenträger zu lokalisieren. Als Beispiel, eine 2TB SSD/HDD mit einem OS von ca. 20GB drauf. Ist nicht das ganze Laufwerk verschlüsselt, weiß ein Angreifer, dass er mit ca. 20GB Daten hantieren muss. Ist das Laufwerk komplett verschlüsselt, muss er mit 2TB hantieren. Jetzt darfst Du genau einmal raten, was bei einem brute force Angriff leichter zu handeln ist. Wie gesagt, wir gehen von einem sicheren Algorithmus und einer sehr sicheren Passphrase aus, dann sollte brute force der einzige Weg sein, an den Klartext zu kommen.

Den Schlüssel findet man immer, es sei denn, er in einer Art Secure Enclave oder auf einem externen Datenträger. Der muss ja gerade zu einer festen Stelle liegen, damit das OS ihn auch finden kann. Da braucht ein Angreifer sich nur den Verschlüsselungscontainer anschauen und dann weiß er, wo der Schlüssel zu finden ist.
 

tocotronaut

Aktives Mitglied
Registriert
14.01.2006
Beiträge
29.100
@brainstuff
Größere Festplatten haben im Normalfall eine höhere Datendichte.
Deshalb sollten sie die Daten schneller auslesen können als die kleineren Festplatten.

Der beschriebene Effekt (mehr Daten brauchen länger) ist zwar da aber nicht so ausgeprägt wie im Beispiel.
 

brainstuff

Mitglied
Registriert
20.05.2019
Beiträge
78
Ich glaube ich muss dir nicht beweisen dass da einen Haufen Unsinn drin stand, wie zum Beispiel dass sich digitale Kopien abnutzen…

…und ich glaube auch dass du dir hier nicht die Sporen verdient hast meine Kompetenz in Frage zu stellen nach all dem wirren Zeug was du hier so geschrieben hast.

entweder Deine Kompetenz hat sich im Laufe des Lebens abgenutzt oder du hast massive Schwächen das schriftlich darzulegen.
Du bist da offensichtlich völlig neben der Spur: Deine "Kompetenz" reicht offensichtlich noch nicht einmal so weit, dass Du einfache Realitäten zur Kenntnis nimmst ... digitale Daten haben eine begrenzte Lebensdauer ... sogar dann, wenn sie "eingebrannt" sind. Auch, wenn man Daten auf einen anderen Datenträger kopiert, werden sie "abgenützt", weil sich da zwangsläufig "Kopierfehler" einschleichen (das kann sogar ganze Dateien betreffen).

Man kann auf einem "Datenträger" noch nicht einmal völlig gefahrlos prüfen, ob da alle Daten angekommen sind ... auch dabei wird der Datenträger abgenutzt und damit steigt sein Ausfallrisiko.

Wenn Deine Anforderungen an Datensicherheit nicht so hoch sind, wie unsere Anforderungen, dann bedeutet das nicht, dass DU recht hast, sondern das bedeutet, dass Du Dich mit Pfusch zufriedengibst. Du hast Dir eine Lupen-Brille aufgesetzt und merkst nicht, dass Du keine Details mehr siehst.

Datensicherheit und Daten-Rettung sind kein Geschäft, was man betreiben darf, wenn man unvorsichtig und eingebildet ist. Wenn man da nicht wenigstens die vorhersehbaren Risiken berücksichtigt, muss man sich dann auch nicht wundern, wenn es mal einen Totalschaden durch ein unvorhergesehenes Ereignis hat.

Ich habe hunderte von Kollegen, die schon seit Jahrzehnten nach einem 100%ig sicheren Datenträger suchen .... es gibt bisher aber nichts, was auch nur länger als ca. 100 Jahre lang einigermaßen sicher haltbar ist. Zudem ist es noch so, dass große Datenmengen, exponentiell mehr Probleme bereiten, wie ganz kleine Mengen.

Sogar, die im Augenblick einzige relativ sichere Methode der Datensicherung ... das Multiplizieren, der Speicherorte und -Medien .... wird bald, so nicht mehr funktionieren können: moderne Medien werden ständig überarbeitet und da ist dann eine herkömmliche Kopie nur noch "Schnee von gestern".

brainstuff
 

Macschrauber

Aktives Mitglied
Registriert
08.02.2014
Beiträge
9.216
Nochmal: moderne Betriebssysteme melden Kopierfehler. Und wenn man regelmäßig die Smart Werte der Platte im Auge behält, regelmäßig frische Kopien anfertigt und aktuell in der Cloud arbeitet ist das schon annähernd sicher.

Langzeitarchivierung ist ein anderes Thema und sicherlich auch in diesem Thread keins.
 

brainstuff

Mitglied
Registriert
20.05.2019
Beiträge
78
Sorry, aber das ist Käse. Die Sicherheit verschlüsselter Daten hängt vom verwendeten Verschlüsselungsalgorithmus und der verwendeten Schlüssellänge ab, egal ob man die Daten findet oder nicht. Wenn man verschlüsselte Daten findet, kann es in manchen Ländern, die es mit Bürgerrechten nicht so genau nehmen, allerdings für den Eigentümer, sagen wir mal unangenehm werden. Das ist aber ein anderes Thema.

Der Schlüssel sollte natürlich mit einer sehr guten Passphrase verschlüsselt sein, damit steht und fällt die Sicherheit. Es ist egal, ob man den Schlüssel findet oder nicht, solange die Passphrase gut ist.

Es macht gerade Sinn, ein komplettes Laufwerk mit einem OS zu verschlüsseln und den freien Speicher einmal mit Zufallszahlen zu füllen, damit alle Bereiche der SSD/HDD mit verschlüsselten Daten beschrieben werden. Das erschwert es einem Angreifer, die interessanten Daten auf dem Datenträger zu lokalisieren. Als Beispiel, eine 2TB SSD/HDD mit einem OS von ca. 20GB drauf. Ist nicht das ganze Laufwerk verschlüsselt, weiß ein Angreifer, dass er mit ca. 20GB Daten hantieren muss. Ist das Laufwerk komplett verschlüsselt, muss er mit 2TB hantieren. Jetzt darfst Du genau einmal raten, was bei einem brute force Angriff leichter zu handeln ist. Wie gesagt, wir gehen von einem sicheren Algorithmus und einer sehr sicheren Passphrase aus, dann sollte brute force der einzige Weg sein, an den Klartext zu kommen.

Den Schlüssel findet man immer, es sei denn, er in einer Art Secure Enclave oder auf einem externen Datenträger. Der muss ja gerade zu einer festen Stelle liegen, damit das OS ihn auch finden kann. Da braucht ein Angreifer sich nur den Verschlüsselungscontainer anschauen und dann weiß er, wo der Schlüssel zu finden ist.

Ich habe da einen international bekannten Professor für Mathematik in meinem Umfeld ... der wundert sich auch darüber, dass die Informatiker so dämlich sind, dass sie an das glauben, was Du da erzählst: "Die Sicherheit verschlüsselter Daten hängt vom verwendeten Verschlüsselungsalgorithmus und der verwendeten Schlüssellänge ab"

Das stimmt nur, wenn der verschlüsselte Text, völlig unbekannt ist. Wenn aber auch nur ein kleiner Teil von dem verschlüsselten Datenträger bekannt ist, dann kann man den "Schlüssel" ziemlich schnell herausfinden.

Ein verschlüsselter Datenträger mit einem Betriebssystem enthält aber zwangsläufig bekannte Stellen, die man dann ziemlich einfach nutzen kann, damit man dann den "Schlüssel" herausfinden kann.

Das haben die Geheimdienste schon im Ersten Weltkrieg so gemacht. Das jetzt ein komplexerer Verschlüsselungsalgorithmus verwendet wird, wie damals, wird dadurch ausgeglichen, dass wir auch komplexere Entschlüsselungsprogramme verwenden können.

Man muss auch in Betracht ziehen, wer das vielleicht entschlüsseln will ... ein unbegabter Computer-Bastler kann auch eine schlampig verschlüsselte Festplatte nicht entschlüsseln. Aber der kommt dann auch nicht an das Betriebssystem dran, wenn er das Passwort nicht kennt ... da braucht es dann keine Verschlüsselung.

Dass Du da sagst, dass die Daten auf einem verschlüsselten Datenträger auf dem es auch ein Betriebssystem hat, viel sicherer sind, wie, wenn man den Drive nicht verschlüsselt, ist nicht wirklich richtig: es ist generell Unfug, wenn man Sachen verschlüsselt, die jeder hat. Das kann man nur dann verantworten, wenn man damit, die wirklich sensiblen Daten, in einem "Heuhaufen" versteckt ... und das macht man auch besser in einer Bildersammlung.

Es ist auch irgendwie ungeschickt, wenn das Betriebssystem sich selbst entschlüsselt. Das bedeutet, dass der Angreifer das Entschlüsselungsprogramm auch auf der Festplatte findet und dann auch noch wissen kann, wie er den Schlüssel finden könnte ..

Du solltest auch berücksichtigen, dass der "Wert" von einer Verschlüsselung auch davon abhängig ist, wie begabt derjenige ist, der versucht da heranzukommen. Dies auch im Hinblick auf "Co-laterale Schäden": wenn Du Deiner Tussy, zum Beispiel, erzählst, dass Du jetzt Deinen Computer verschlüsselt hast, damit sie die Bilder von Deinen anderen Freundinnen nicht mehr anschauen kann, dann feuert die Dich vielleicht.

Du musst auch lernen, wie fast Alle hier, dass im Internet lineares Denken fast völlig fehl am Platz ist. Ein "Hacker", der Dir sagt, dass er Deinen Computer gehackt hat, ist, mit großer Sicherheit, ein Schwindler, der nur blödes Zeug redet und sich nur wichtig machen will.


















brainstuff
 

Macschrauber

Aktives Mitglied
Registriert
08.02.2014
Beiträge
9.216
@brainstuff:

Auch wenn wir fachlich nicht einer Meinung sind werfe ich ein Kompliment nach Dir:

Nach meinem Anpfiff lässt Du jetzt das wirre belanglose Zeug weg und konzentrierst Dich auf sachliche Antworten.

Weiter so :)
 

brainstuff

Mitglied
Registriert
20.05.2019
Beiträge
78
Nochmal: moderne Betriebssysteme melden Kopierfehler.
oftmals sogar solche wo gar kein Kopierfehler vorliegt ... oder sie melden Viren, die es in Wirklichkeit gar nicht gibt.

Wenn es auf einer Festplatte WIRKLICH einen Kopierfehler hat, dann ist das (oftmals) was extrem ernstes, was man nicht als Scherzmeldung abtun sollte



Und wenn man regelmäßig die Smart Werte der Platte im Auge behält,
Das macht kein normaler Nutzer und der kann diese Werte auch gar nicht beurteilen.

regelmäßig frische Kopien anfertigt
die Kopien sind fast immer "Schnee von gestern" und haben nur noch einen Wert bei Computer-Bastlern ...

und aktuell in der Cloud arbeitet ist das schon annähernd sicher.
Das bezweifele ich auch gar nicht wirklich ... aber auch im Cloud kann es Probleme geben. Wenn man zum Beispiel seine Passwörter bei Google speichert, dann kann das "großartig" oder "geistesgestört" sein. Da kann man eigentlich sicherheitshalber gar nichts machen ..

Langzeitarchivierung ist ein anderes Thema und sicherlich auch in diesem Thread keins.
Langzeitarchivierung (=Daten Museum) ist nur per Multiplikation der Datenträger möglich.

Die aktuellen Datenbestände sind dazu immer seltener zu gebrauchen. Das werden vermehrt Datenbestände, die einer ständigen Evolution unterliegen. Und diese Daten kann man dann nicht einfach mehr ins Archiv verfrachten ... wir müssen das Datenmanagement jetzt endlich komplett überdenken. Wir können jetzt eine ganze Bibliothek von Büchern auf unser Smartphone/Tablet/NotebookComputer legen, ohne dass der auch nur 1 g schwerer wird ... da kommen Möglichkeiten auf uns zu, die wir schon seit 20 Jahren verschlafen haben ..
 

Macschrauber

Aktives Mitglied
Registriert
08.02.2014
Beiträge
9.216
Die Daten die mir am Wichtigsten sind ist meine Musiksammlung, die ist nicht durch Altern Schnee von Gestern. Höchst Unwichtig aber da steckt Herzblut und MannMonate an Verwaltungsarbeit dahinter. Und bei seltenen Aufnahmen auch enorme Energie.

Ansonsten hab ich irgendwie das Gefühl dass die meisten Deiner Argumente sowas von veraltet sind. Da sind noch Probleme im Kopf die noch aus der Quasi-analogen Zeit stammen als Daten auf Bandmaschinen gespeichert wurden.

Du solltest dich mal mit modernen Betriebs- und Filesystemen beschäftigen. Ernsthaft und nicht polemisch gemeint.
 

brainstuff

Mitglied
Registriert
20.05.2019
Beiträge
78
@brainstuff:

Auch wenn wir fachlich nicht einer Meinung sind werfe ich ein Kompliment nach Dir:

Nach meinem Anpfiff lässt Du jetzt das wirre belanglose Zeug weg und konzentrierst Dich auf sachliche Antworten.

Weiter so :)
Dass wir fachlich nicht einer Meinung sind, sehe ich eigentlich sehr positiv ... ich hatte das Glück, dass meine Mutter und meine Sponsoren alles nur Mögliche getan haben, damit ich nicht zu einem konditionierten Roboter werde ... da habe ich dann immer eine eigenständige Meinung entwickelt.

Ich bin deshalb immer froh, wenn ich von den "Robotern" kritisiert werde, wenn ich etwas sage, was sie nicht verstehen können. Das zeigt mir dann, dass ich offenbar unabhängig denken kann.

Ich bin davon überzeugt, dass Du jetzt auch fachlich zu einer Meinung gelangst, die etwas in meine Richtung geht: Wenn eine Festplatte nicht richtig arbeitet, dann muss man nicht "positiv denken" und sie intensiv testen, sondern man muss dann so schnell wie möglich, die Daten sichern.

Die Tatsache, dass es kein einziges Programm zur Datenrettung gibt, was, sofort, die wichtigsten Dateien sichert und was dem Nutzer sagt, was er auf keinen Fall tun darf, bis alle Dateien gesichert sind, ist ein Skandal!

Wenn man vernünftig handelt, dann hat man von fast allen Dateien noch eine Kopie auf einem anderen Datenträger. Deshalb muss man im Notfall zuerst einmal die Dateien sichern, die neu sind ... es darf nicht sein, dass man da zuerst einmal den Datenträger testet, dann stundenlang die alten Dateien testet und dann stundenlang die alten Dateien (die sowieso schon gesichert sind) auf einen anderen Datenträger kopiert. Da muss zuerst das gesichert werden, was neu ist.

Besonders in Notsituationen gilt, dass man das Wichtigste zuerst machen muss ... herumspielen und testen kann man dann später noch, wenn es dann noch geht.
 

brainstuff

Mitglied
Registriert
20.05.2019
Beiträge
78
Die Daten die mir am Wichtigsten sind ist meine Musiksammlung, die ist nicht durch Altern Schnee von Gestern. Höchst Unwichtig aber da steckt Herzblut und MannMonate an Verwaltungsarbeit dahinter. Und bei seltenen Aufnahmen auch enorme Energie.
Deine einzelnen Dateien von Deiner Musiksammlung müssen so bleiben, wie sie ursprünglich waren ... die kann man nur kopieren und dann kann man die Kopie verändern. Das halte ich auch so bei Bildern. Auch da sind neue Versionen, Kopien von der alten Version, die verändert wurden... die tragen dann einen Namen, der anzeigt, was da verändert wurde. Die neuen Versionen sind dann nur eine Veränderung bzw. eine Ergänzung des Inhalts von dem Datenträger. Die alten Dateien sind davon aber nicht betroffen und müssen deshalb nicht nochmals gesichert werden.
Ansonsten hab ich irgendwie das Gefühl dass die meisten Deiner Argumente sowas von veraltet sind. Da sind noch Probleme im Kopf die noch aus der Quasi-analogen Zeit stammen als Daten auf Bandmaschinen gespeichert wurden.
Auch auf Festplatten hat es Abnutzungserscheinungen. Mit der zunehmenden Dichte der Daten ist das sogar noch schlimmer geworden.
Du solltest dich mal mit modernen Betriebs- und Filesystemen beschäftigen. Ernsthaft und nicht polemisch gemeint.
Die modernen Betriebs- und Filesysteme können die mechanischen Probleme nicht beseitigen. Die sind noch nicht einmal in der Lage die auftretenden thermischen Probleme zu managen .... das wäre auch ein völliger Unfug, wenn das Betriebssystem und das Filesystem bestimmen würden, wie eine Festplatte von ihrem Controller gesteuert wird.
 

brainstuff

Mitglied
Registriert
20.05.2019
Beiträge
78
@brainstuff:

Auch wenn wir fachlich nicht einer Meinung sind werfe ich ein Kompliment nach Dir:

Nach meinem Anpfiff lässt Du jetzt das wirre belanglose Zeug weg und konzentrierst Dich auf sachliche Antworten.

Weiter so :)
Dass wir fachlich nicht einer Meinung sind, sehe ich eigentlich sehr positiv ... ich hatte das Glück, dass meine Mutter und meine Sponsoren alles nur Mögliche getan haben, damit ich nicht zu einem konditionierten Roboter werde ... da habe ich dann immer eine eigenständige Meinung entwickelt.

Ich bin deshalb immer froh, wenn ich von den "Robotern" kritisiert werde, wenn ich etwas sage, was sie nicht verstehen können. Das zeigt mir dann, dass ich offenbar unabhängig denken kann.

Ich bin davon überzeugt, dass Du jetzt auch fachlich zu einer Meinung gelangst, die etwas in meine Richtung geht: Wenn eine Festplatte nicht richtig arbeitet, dann muss man nicht "positiv denken" und sie intensiv testen, sondern man muss dann so schnell wie möglich, die Daten sichern.

Die Tatsache, dass es kein einziges Programm zur Datenrettung gibt, was, sofort, die wichtigsten Dateien sichert und was dem Nutzer sagt, was er auf keinen Fall tun darf, bis alle Dateien gesichert sind, ist ein Skandal!

Dass diese Tests sogar extra die Datei Attribute "vergessen" und deswegen auch Dateien listen, die schon gesichert sind, zeigt mir, dass diese Tests nur dazu dienen, dass man dann dem Nutzer vortäuschen kann, dass er xxx Mal mehr Dateien verlieren wird, wie er wirklich verliert. Das ist eine Erpressung der übelsten Sorte, weil die Zeit, die bei den Tests noch verloren geht, den möglichen Schaden noch verschlimmert.

Wenn man vernünftig handelt, dann hat man von fast allen Dateien noch eine Kopie auf einem anderen Datenträger. Deshalb muss man im Notfall zuerst einmal die Dateien sichern, die neu sind ... es darf nicht sein, dass man da zuerst einmal den Datenträger testet, dann stundenlang die alten Dateien testet und dann erst die Dateien sichert, die noch nicht irgendwo anders existieren.

Eigentlich müsste jeder auch nur einigermaßen vernünftige Mensch so handeln.

In der Realität ist es so, dass man alles daran setzt, dass man den Kunden mit einer möglichst großen Liste von Dateien, die er angeblich retten kann, dazu erpresst, dass er so ein Programm kauft, was dann die Festplatte so gestresst und kaputtgemacht hat, dass die vielen Dateien, von denen nur, sehr wenige, nicht schon gesichert sind, für viel Geld wiederhergestellt werden können.

Die Liste, die der Test da ausgibt, ist nichts anderes, wie ein Inventar vom Haus, was auflistet, was da vielleicht noch drin war, bevor es abgebrannt ist.

In der Informatik muss man ALLES immer wieder hinterfragen und man darf auf keinen Fall linear -"digital" denken! Diese Sauerei hat inzwischen sogar dazu geführt, dass wir auch ohne Informatik, ständig um die Ecke denken ... auch in unserem normalen Leben, ist extrem vieles "vorne hui und hinten pfui". Was da wirklich hinter der Fassade steckt, wissen nur die Götter und die können das auch nicht wissen, weil es sie nicht gibt.

brainstuff
 
Zuletzt bearbeitet:

lisanet

Aktives Mitglied
Registriert
05.12.2006
Beiträge
5.356
Es ist zum Beispiel, ein totaler Unfug, wenn man ein ganzes Laufwerk, mit einem Betriebssystem verschlüsselt. Das ist es ultra einfach den "Schlüssel" zu finden.

Auf die Erklärung bin ich nun gespannt, warum eine Entschlüsselung eines ganzen Laufwerkes dazu führen soll, dass ein Schlüssel einfacher zu finden sei.

Ein verschlüsselter Datenträger mit einem Betriebssystem enthält aber zwangsläufig bekannte Stellen, die man dann ziemlich einfach nutzen kann, damit man dann den "Schlüssel" herausfinden kann.

Das haben die Geheimdienste schon im Ersten Weltkrieg so gemacht. Das jetzt ein komplexerer Verschlüsselungsalgorithmus verwendet wird, wie damals, wird dadurch ausgeglichen, dass wir auch komplexere Entschlüsselungsprogramme verwenden können.

Das mit den "bekannten Stellen" ist aber auch veraltetes Wissen aus Enigma-Zeiten. Was ist das anderes als brute-force mit im Vergleich zu AES recht geringen Variationen.

Also nochmals: warum sollen nun komplett verschlüsselte Laufwerke es erleichtern, den Schlüssel zu rekonstruieren?
 

Macschrauber

Aktives Mitglied
Registriert
08.02.2014
Beiträge
9.216
Ich habe nie geschrieben dass ich einen Datenträger stundenlang testen würde. Wenn eine Platte muckt dann wird ein Image gezogen und am Image gearbeitet.

Genau dafür gibt es ja das Smart Monitoring. Und auch Programme für den Laien wie DriveDx die schon bei den ersten Husten der Platte das dem Benutzer meldet.

Genauso kann man das in NASen konfigurieren, sobald Smart Werte sich Richtung kritisch verändern schlagen die Alarm und melden dass dem Benutzer per Nachricht, eMail, Hupen, Blinken, was auch immer konfigurierbar ist.

Redundanz per RAID hat man auch noch gar nicht berücksichtigt wenn wir mal bei NASen sind.
 

brainstuff

Mitglied
Registriert
20.05.2019
Beiträge
78
Ich habe nie geschrieben dass ich einen Datenträger stundenlang testen würde. Wenn eine Platte muckt dann wird ein Image gezogen und am Image gearbeitet
Ob Du selbst Datenträger stundenlange testest, steht hier gar nicht zur Debatte. Praktisch ALLE Datenrettungsprogramme machen erst einmal einen Test um aufzulisten was da noch vielleicht zu retten ist.
Auch DU machst das anscheinend, indem Du "dann wird ein Image gezogen" machst ... da kopierst Du dann während xxx Stunden das Image von einer xTb Festplatte auf eine andere, damit Du dann 250 Gb Daten retten kannst .... die 250 Gb die Du wirklich brauchst, könntest Du innerhalb von weniger als 10 Minuten Retten.
Genau dafür gibt es ja das Smart Monitoring. Und auch Programme für den Laien wie DriveDx die schon bei den ersten Husten der Platte das dem Benutzer meldet.
Nach dem "ersten Husten" weiß man nie wie viel Zeit da noch bleibt. Und ob diese Zeit dann reicht, um die ganze Platte zu sichern, hängt dann auch davon ab, wie groß die Platte ist. 1 Stunde um eine 200 Gb Platte zu kopieren ist relativ viel, 1 Stunde um eine 4 Tb Platte zu kopieren ist relativ wenig ... das ist wie bei den Haaren: 3 Haare in der Suppe sind relativ viele, 3 Haare auf dem Kopf sind relativ wenige.
Genauso kann man das in NASen konfigurieren, sobald Smart Werte sich Richtung kritisch verändern schlagen die Alarm und melden dass dem Benutzer per Nachricht, eMail, Hupen, Blinken, was auch immer konfigurierbar ist.
Bei einem NAS ist alles noch viel komplexer, weil die Daten darauf normalerweise "gespiegelt" werden und weil dann auch noch das Alter von den einzelnen Festplatten in Betracht gezogen werden muss.
Du solltest Dich mal bei meinem Freund, dem Elon Musk, melden, der sucht auch noch Leute, für seine stupiden Roboter und seine autonomen Autos, die glauben, dass high-tech weniger Fehler macht, wie Menschen und die nicht wissen, dass der Dorftrottel, manchmal instinktiv besser reagiert wie der Roboter-Schrott.
Redundanz per RAID hat man auch noch gar nicht berücksichtigt wenn wir mal bei NASen sind.
Auf Redundanz per Raid und NAS sind wir schon vor ca 25 Jahren bei fast allen Kunden und in der eigenen Informatik umgestiegen. Alle unsere Daten sind inzwischen auf NAS Servern ... und nur noch die Daten von den letzten Tagen sind nur auf den Notebooks, die wir verwenden. Wir hatten seither nur noch sehr wenige Datenverluste, vor allem durch herabgefallene oder verloren gegangene Notebooks. Auf diesen Notebooks hat es aber immer fast nur die Daten, die im Augenblick benötigt werden und da können keine alten Daten verloren gehen. Auf den NAS Geräten, war es aber notwendig, dass wir die Rotation der Festplatten optimieren. Außerdem wurden/werden da nur Festplatten eingesetzt, die nicht alt sind.

Jetzt werden die NAS Geräte als zusätzliche lokale Zwischenspeicher eingesetzt und ergänzen den Speicher im Cloud: Notebook--> NAS --> Cloud. Die Archivdaten, im Cloud, werden zu einem großen Teil so gespeichert, dass sie nicht mehr verändert werden können.

Letzteres ist auch so ein Thema, wo man sich bei den bisher üblichen Backup Verfahren Fragen stellen muss. Eigentlich könnte es sinnvoll und möglich sein, dass man bei Dateien, die Zeit zurückdrehen können müsste, wie das bei timeCapsule am Anfang wahrscheinlich vorgesehen war ...
Wenn man eine neuere Version in´s Archiv legt, muss die nicht unbedingt die alte Version überschreiben.
 

Macschrauber

Aktives Mitglied
Registriert
08.02.2014
Beiträge
9.216
Nach den wiederholten persönlichen Beschimpfungen und Verunglimpfungen höre ich jetzt auf mit Dir zu diskutieren.

Jeder der nicht exakt deinem Denkschema nachfolgt ist ein Robotter oder sonst irgendwie geistig unterbelichtet.

Komm mal von Deinem hohen Ross runter. So allwissend wie Du hier tust bist Du lange nicht.

Und besser wie das Fußvolk ist der Akademiker auch nicht per Definition.

Gute Besserung…
 
Oben