Öffnet das System eine neue Datei (zum Lesen) und ist diese Datei nicht bereits von anderen Programmen gleichzeitig geöffnet, so defragmentiert das neue HFS+-System automatisch diese Datei, sofern sie kleiner als 20 MByte ist. [...] Generell muss gesagt werden, dass das Dateisystem HFS+ sowieso nicht besonders anfällig gegenüber Fragmentierungseffekten ist. Das System verwendet bereits eine durchdachte Technik beim Reservieren von Speicherblöcken für Dateien, die eine Fragmentierung auch so schon minimiert. Bei älteren DOS-Systemen aus der PC-Welt war das anders: Das dort verwendete FAT-Dateisystem war ursprünglich für kleine 160KByte-Disketten gedacht und brauchte deshalb zunächst keine besonderen Techniken, die beim Anlegen von Dateien deren Anordnung auf dem Speichermedium optimierte. Da FAT dann aber mehr oder weniger unverändert auf Festplatten übertragen wurde, kam es dot zu massiven Geschwindigkeitseinbußen, als die Platten- und Dateigrößen anstiegen. Aus diesem Grund wurden dort Defragmentierungsprogramme entwickelt, die man von Zeit zu Zeit aufrufen konnte, um Platten zu optimieren.
Auf heutigen Systemen wie HF+, UFS oder NTFS spielt die Fragmentierung nicht mehr eine so große Rolle. Bereits beim Schreiben einer Datei untersucht das Betriebssystem, wie es die Daten möglichst geschickt auf der Platte anordnet, so dass der spätere Lesezugriff schnell erfolgen kann.
[...]
Eine weitere Optimierungstechnik ist das so genannte Hot File Clustering. Diese Technik ist intern an Journaling gekoppelt und wird nur auf dem Systemvolume verwendet. Mac OS X untersucht hier in regelmäßigen Abständen von ca. 60 Stunden Betriebszeit, welche Dateien am häufigsten benötigt, d.h. gelesen wurden. Außerdem wird ein gewisser Speicher bereich (ca. 0,5%) reserviert, auf den besonders schnell zugegriffen werden kann.