Defragmentieren ja - defragmentieren nein - OS X fragmentiert nicht - tut es doch ...
... vielleicht ist es einfach mal sinnvoll erst zu klären, was ihr denn so jeweils unter Fragmentierung versteht? Nur die reine physikalische Tatsache, dass eine Ansammlung von Daten auf dem Datenträger nicht in aufsteigender Folge in aufeinanderfolgenden Blöcken einer Spur der Festplatte abliegen? Oder geht es eher um die angeblich spürbar längere Zeit die benötigt wird solch nicht physikalisch zusammenhängende Datenblöcke ins RAM zu lesen?
Physikalisch ist Fragmentierung sicher immer irgendwann vorhanden. Aber ob es auch einen Effekt hat, der sich bemerkbar macht, steht auf einem ganz anderen Blatt. Festplatten haben keine "Rillen", wie eine Schallplatte in der immer nur sequentiell gelesen werden kann, sondern Blöcke, Spuren und Zylinder. Und da ist es nicht immer so, dass zusammenhängende Blöcke in einer Spur und nebeneinander liegende Spuren auf einer Plattenseite einen schnelleren Zugriff ermöglichen. Seht mal den Fall an, wenn sie auf den direkt gegenüberliegend Spuren verschiedener Plattenseiten sind. Stichwort: RAID.
Zudem hat ein moderneres Dateisystem wie z.B. HFS+ deutlich mehr Intelligenz als das recht karge und und zusammen geflickte FAT, die zur Verfügung stehenden Informationen über die Datei und die Festplattengeometrie und die Hardwarefunktionen zu nutzen. Denkt mal an look ahead und caching Funktionen moderner Festplatten. Da wird es recht egal, ob eine Datei hintereinander weg auf einer Spur abliegt, oder Spuren/Blöcke/Zylinder/Plattenseiten dazwischen sind. Es fällt schlichtweg so gut wie nicht ins Gewicht. Oder die ganz banale Vorgehenswese, bei einer Änderung einer Datei, wenn möglich erst komplett neu zu schreiben und dann den bisherigen Speicherbereich frei zu geben. Und wenn dann noch ein Dateisystem die Größe der Datei kennt oder die Anzahl der vorhandenen Teilstücke, dann kann schon beim Schreiben wirkungsvoll ein "bemerkbarer" negativer zeitlicher Effekt vermieden werden. Oder glaubt hier jemand, dass bei den paar Millisekunden von durchschnittlicher Zugriffszeit, 10, 20 Fragmente einer Datei zu "spürbaren" Effekten führt.
FAT schafft es eine große Datei in Hunderte von Teilstücken zu zerlegen, HFS+ und andere gehen da deutlich intelligenter ans Werk.
BTW, ich hätte mal Lust einen neuen Mythos über Systemoptimierung in die Welt zu setzen:
Es macht ein System schneller, wenn man die Dateien alphabetisch sortiert in einem Verzeichnis abspeichert und damit auch alphabetisch anordnet. Dann muss bei einem Dateizugriff, das System nicht erst selbst die Dateinamen sortieren. Gibt "spürbare" Geschwindigkeitsvorteile. Sicher.