Eine Lanze für die Defragmentierung

X

xoxox

Aktives Mitglied
Thread Starter
Dabei seit
08.09.2006
Beiträge
515
Reaktionspunkte
73
*read before posting*

Der erste Reflex von einigen von euch wird wahrscheinlich genauso ausfallen, wie noch vor einer Woche bei mir selbst. Trotzdem bitte ich um eine sachliche Diskussion abseits von Halbwahrheiten.

Mein iMac ist nun drei Jahre alt, hat drei Betriebssysteme mitgemacht, und fiel in den letzten Monaten durch erhöhte Festplattenaktivität auf. Das sprichwörtliche "Gerödel" der Festplatte war nicht nur unangenehm laut, die Performance war deutlich eingeschränkt.

Firefox startete erst nach einigen Sekunden heftiger Festplattenaktivität, World of Warcraft stotterte im Spiel vor sich hin, sobald sehr viele andere Spieler in Sicht waren (Stichwort Dalaran), teilweise soweit dass es zu Verbindungsabbrüchen kam. Generell war zu merken, dass Tätigkeiten wie Spotlight-Suche eine zu hohe Festplattenaktivität verursachten.

Bislang tat ich es meist ab, es ist halt ein schleichender Prozess. Bis ich dann mal an den Mac Mini meines Vaters saß. Er nutzt ihn fast nur für Mail, ICQ und WWW. Die Startzeit vom Firefox gab mir dann zu denken. Extrem schneller (und ruhiger), wo ich dann dachte:"Das kann es nicht sein, dass ein von HW schlechterer Mac eine so viel bessere Performance zeigt".

Ich hab mir dann ein Defragmentierungs-Programm besorgt. Den Namen möchte ich erstmal nicht posten, um keine Flames zu provozieren. Es bootete jedenfalls von CD und analysierte erstmal meine Festplatte.

Dabei sind zweierlei Dinge aufgefallen:

Der Fragmentierungsgrad von _einzelnen_ Dateien lag bei ca. 4%. Ein sehr guter Wert wenn man das Alter und die hohe Nutzung meines iMacs bedenkt. Die interne Defragmentierung von Mac OS X funktioniert also!

Der Fragmentierungsgrad der gesamten Festplatte an sich war jedoch katastrophal. Die Festplatte sah aus wie ein Flickenteppich. Mac OS X monitort zwar sog. "Hot-Dateien", also Dateien die sehr oft in Benutzung sind und ordnet sie am Anfang der Festplatte an. Das sah man auch, aber die restlichen Dateien waren wirklich kreuz und quer verteilt.

Das ist auch nicht verwunderlich wenn man über die interne Defragmentierung von Mac OS X nachdenkt. Sobald eine Datei unter 20MB defragmentiert wird sie automatisch woanders hin am Stück verschoben. Gut für die einzelne Dateien, aber es fördert ebend extrem die Fragmentierung der gesamten Platte.

Wenn man überlegt, ist die interne Defragmentierung von Mac OS X nur halb zu Ende gedacht. Es bringt nichts wenn die Festplatte eine Datei X am Stück lesen kann, aber die logisch folgende Datei Y am anderen Ende der Festplatte liegt. Der Schreib-/Lese Kopf muss trotzdem eine weite Strecke zurück legen.

Das Ergebnis der Defragmentierung (die über drei Stunden dauerte) ahnt ihr wahrscheinlich schon. Deutlich(!) weniger Festplattenaktivität, sowohl kürzer als auch leiser. Die Bootzeiten haben sich nicht sehr geändert, hier greift anscheinend das angesprochene automatische Verschieben von den "Hot-Dateien". Aber Firefox ist wieder benutzbar, in Wow kann ich wieder durch Dalaran laufen ohne Angst zu haben, meine Festplatte stirbt gleich. Die gefühlte Performance insgesamt ist deutlich gestiegen und wieder so wie früher.

Fazit: Defragmentierung einzelner Dateien wird automatisch sehr gut erledigt. Defragmentierung der gesamten Festplatte ist nur im Ansatz vorhanden, so dass man selber Hand anlegen muss. Das verwendete Programm kann ich auf Anfrage posten.

Wer eine Backup-Festplatte mit einer 1:1 Kopie hat (SuperDuper, CCC) erreicht selbstverständlich das gleiche Ergebniss, indem er das Backup von der externen Festplatte auf die interne Festplatte zurück spielt. Auch dann sind alle Dateien wieder am Stück.
 
  • Gefällt mir
Reaktionen: Doc.Tock, Otiss, Das Gnu und eine weitere Person
ich verwende gelegentlich idefrag 1.7.1 und bin sehr zufrieden; temp. auf 61°, damit's nicht immer wieder "wärmepausen" gibt ..
 
Deine Erfahrungen habe ich interessiert gelesen.

Nur verstehe ich nicht, warum Du den Namen des Programms, mit dem Du
ja offensichtlich sehr zufrieden bist, nicht nennen möchtest.

Wenigstens mich - und vermutlich auch viele andere - würde schon inter-
essieren, von welchem Programm Du hier Deine Erfahrungen niedergeschrie-
ben hast.

MfG
Peter
 
das einzig sinnvolle ist idefrag ..
 
Nur verstehe ich nicht, warum Du den Namen des Programms, mit dem Du
ja offensichtlich sehr zufrieden bist, nicht nennen möchtest.
Ich wollte Flames vermeiden. Das Thema Defragmentierung ist teilweise doch vorbelastet.
Aber nachdem einige es eh schon gepostet haben: Ich habe auch iDefrag benutzt. Aber wie gesagt, ein Rückspielen eines kompletten Backups erreicht dasselbe Ergebniss.
 
*read before posting*

Der erste Reflex von einigen von euch wird wahrscheinlich genauso ausfallen, wie noch vor einer Woche bei mir selbst. Trotzdem bitte ich um eine sachliche Diskussion abseits von Halbwahrheiten.

Mein iMac ist nun drei Jahre alt, hat drei Betriebssysteme mitgemacht, und fiel in den letzten Monaten durch erhöhte Festplattenaktivität auf. Das sprichwörtliche "Gerödel" der Festplatte war nicht nur unangenehm laut, die Performance war deutlich eingeschränkt.

Firefox startete erst nach einigen Sekunden heftiger Festplattenaktivität, World of Warcraft stotterte im Spiel vor sich hin, sobald sehr viele andere Spieler in Sicht waren (Stichwort Dalaran), teilweise soweit dass es zu Verbindungsabbrüchen kam. Generell war zu merken, dass Tätigkeiten wie Spotlight-Suche eine zu hohe Festplattenaktivität verursachten.

Bislang tat ich es meist ab, es ist halt ein schleichender Prozess. Bis ich dann mal an den Mac Mini meines Vaters saß. Er nutzt ihn fast nur für Mail, ICQ und WWW. Die Startzeit vom Firefox gab mir dann zu denken. Extrem schneller (und ruhiger), wo ich dann dachte:"Das kann es nicht sein, dass ein von HW schlechterer Mac eine so viel bessere Performance zeigt".

Ich hab mir dann ein Defragmentierungs-Programm besorgt. Den Namen möchte ich erstmal nicht posten, um keine Flames zu provozieren. Es bootete jedenfalls von CD und analysierte erstmal meine Festplatte.

Dabei sind zweierlei Dinge aufgefallen:

Der Fragmentierungsgrad von _einzelnen_ Dateien lag bei ca. 4%. Ein sehr guter Wert wenn man das Alter und die hohe Nutzung meines iMacs bedenkt. Die interne Defragmentierung von Mac OS X funktioniert also!

Der Fragmentierungsgrad der gesamten Festplatte an sich war jedoch katastrophal. Die Festplatte sah aus wie ein Flickenteppich. Mac OS X monitort zwar sog. "Hot-Dateien", also Dateien die sehr oft in Benutzung sind und ordnet sie am Anfang der Festplatte an. Das sah man auch, aber die restlichen Dateien waren wirklich kreuz und quer verteilt.

Das ist auch nicht verwunderlich wenn man über die interne Defragmentierung von Mac OS X nachdenkt. Sobald eine Datei unter 20MB defragmentiert wird sie automatisch woanders hin am Stück verschoben. Gut für die einzelne Dateien, aber es fördert ebend extrem die Fragmentierung der gesamten Platte.

Wenn man überlegt, ist die interne Defragmentierung von Mac OS X nur halb zu Ende gedacht. Es bringt nichts wenn die Festplatte eine Datei X am Stück lesen kann, aber die logisch folgende Datei Y am anderen Ende der Festplatte liegt. Der Schreib-/Lese Kopf muss trotzdem eine weite Strecke zurück legen.

Das Ergebnis der Defragmentierung (die über drei Stunden dauerte) ahnt ihr wahrscheinlich schon. Deutlich(!) weniger Festplattenaktivität, sowohl kürzer als auch leiser. Die Bootzeiten haben sich nicht sehr geändert, hier greift anscheinend das angesprochene automatische Verschieben von den "Hot-Dateien". Aber Firefox ist wieder benutzbar, in Wow kann ich wieder durch Dalaran laufen ohne Angst zu haben, meine Festplatte stirbt gleich. Die gefühlte Performance insgesamt ist deutlich gestiegen und wieder so wie früher.

Fazit: Defragmentierung einzelner Dateien wird automatisch sehr gut erledigt. Defragmentierung der gesamten Festplatte ist nur im Ansatz vorhanden, so dass man selber Hand anlegen muss. Das verwendete Programm kann ich auf Anfrage posten.

Wer eine Backup-Festplatte mit einer 1:1 Kopie hat (SuperDuper, CCC) erreicht selbstverständlich das gleiche Ergebniss, indem er das Backup von der externen Festplatte auf die interne Festplatte zurück spielt. Auch dann sind alle Dateien wieder am Stück.

Super Duper und Carbon Copy Cloner erreichen nur dann eine Defragmentierung, wenn man vom Clone bootet und dann zuerst die interne Platte neu partitioniert und dann den Clone mit Super Duper oder CCC zurückspielt. Das ist die kostengünstigste Lösung.
 
Leider gibt es von iDefrag keine brauchbare Trial-Version. Die Demo defragmentiert
wohl nur Platten oder Partitionen bis max. 100 GB. Schade......
 
Super Duper und Carbon Copy Cloner erreichen nur dann eine Defragmentierung, wenn man vom Clone bootet und dann zuerst die interne Platte neu partitioniert und dann den Clone mit Super Duper oder CCC zurückspielt. Das ist die kostengünstigste Lösung.
Und warum extra neu partitionieren? Ein einfaches Formatieren reicht auch aus.
Gruss
der eMac_man
 
naja, ob man von deinen erfahrungen nun generalisieren kann?
du hast ja eigentlich einen extrem fall dort mit WoW, da das ja große datenfiles hat.
die seek time verringerst du nicht in jedem fall mit defragmentieren...

idefrag hat bei mir immer die bootzeit extrem verlängert, trotz extra hot file clustering...
 
  • Gefällt mir
Reaktionen: minilux und avalon
Wenn man überlegt, ist die interne Defragmentierung von Mac OS X nur halb zu Ende gedacht. Es bringt nichts wenn die Festplatte eine Datei X am Stück lesen kann, aber die logisch folgende Datei Y am anderen Ende der Festplatte liegt. Der Schreib-/Lese Kopf muss trotzdem eine weite Strecke zurück legen.
/QUOTE]

Was sind denn bei Dir die logisch aufeinander folgenden Dateien X und Y beispielsweise? Und wie stellt ein Defragmentierungsprogramm diese Logik fest?
 
Wenn man überlegt, ist die interne Defragmentierung von Mac OS X nur halb zu Ende gedacht. Es bringt nichts wenn die Festplatte eine Datei X am Stück lesen kann, aber die logisch folgende Datei Y am anderen Ende der Festplatte liegt. Der Schreib-/Lese Kopf muss trotzdem eine weite Strecke zurück legen.
/QUOTE]

Was sind denn bei Dir die logisch aufeinander folgenden Dateien X und Y beispielsweise? Und wie stellt ein Defragmentierungsprogramm diese Logik fest?
Die Logik erfolgt daraus in welche Verzeichnissen die Dateien liegen.
Beispiel: Wenn Firefox startet, liest es die Plugins aus / /Library/Internet Plug-Ins/. Wenn die dortigen Dateien wild verteilt liegen, dauert es länger, als wenn sie auf der Festplatte hintereinander liegen.
 
naja, ob man von deinen erfahrungen nun generalisieren kann?
du hast ja eigentlich einen extrem fall dort mit WoW, da das ja große datenfiles hat.
die seek time verringerst du nicht in jedem fall mit defragmentieren...

idefrag hat bei mir immer die bootzeit extrem verlängert, trotz extra hot file clustering...
Es geht in WoW nicht um die Datenfiles des Programms, sondern um die zig Texturen. Wenn 50 Spieler um dich herum gerendert werden sollen, und für jeden müssen die Texturen geladen werden. In Dalaran hatte ich vorher ewig lange Ruckelorgien nach dem Einloggen. Die anderen Spieler wurden erst nach extrem langer Zeit überhaupt angezeigt, begleitet von heftigsten Rödeln Festplatte. Dies konnte ich deutlich verringern.
 
Es geht in WoW nicht um die Datenfiles des Programms, sondern um die zig Texturen. Wenn 50 Spieler um dich herum gerendert werden sollen, und für jeden müssen die Texturen geladen werden. In Dalaran hatte ich vorher ewig lange Ruckelorgien nach dem Einloggen. Die anderen Spieler wurden erst nach extrem langer Zeit überhaupt angezeigt, begleitet von heftigsten Rödeln Festplatte. Dies konnte ich deutlich verringern.

texturen sind also keine daten von WoW? ;)
werden die einzeln gespeichert oder sind die teil eines mega files?
 
  • Gefällt mir
Reaktionen: Sponski
irgendwie ist defragmieren die mühe nicht wert. Für die paar % performance würd ich kein komplett backup mit ccc machen udn wieder zurück kopieren. meine arme Zeit..

Wird echt Zeit für SSDs.. dann hat diese diskussion hoffentlich auch n ende..
 
Die Logik erfolgt daraus in welche Verzeichnissen die Dateien liegen.
Beispiel: Wenn Firefox startet, liest es die Plugins aus / /Library/Internet Plug-Ins/. Wenn die dortigen Dateien wild verteilt liegen, dauert es länger, als wenn sie auf der Festplatte hintereinander liegen.

So weit ich weiß, werden die Daten auf (physikalische) Blöcke geschrieben. Eine (größere) Datei verteilt sich dabei auf mehrere Blöcke. Dabei muss es für die Schreib/Lesegeschwindigkeit nicht besser sein, wenn die Blöcke unmittelbar aufeinander folgen.
Ob hier ein Defragmentierungsprogramm für jede Festplatte und jede Dateimischung zu einer spürbar besseren Lösung führt, halte ich nicht für ausgemacht. Bei ausreichend freiem Platz auf einer intakten Festplatte kommen die von xoxox beschriebenen Probleme bei Standardnutzern kaum vor.
 
Die angeführte Logik ist ohnehin sehr fragwürdig, da Festplatte ja aus mehreren Platten mit jeweils eigenen Schreib-,Leseköpfen bestehen.
Somit können Daten schneller geladen werden, wenn sie auf mehrere Platten verteilt abgelegt werden, als wenn sie in einem Block auf einer Platte liegen.
 
  • Gefällt mir
Reaktionen: McKean
Fazit: Defragmentierung einzelner Dateien wird automatisch sehr gut erledigt. Defragmentierung der gesamten Festplatte ist nur im Ansatz vorhanden, so dass man selber Hand anlegen muss. Das verwendete Programm kann ich auf Anfrage posten.

Die Fragmentierung der gesamten Festplatte wird meines Erachtens von dir überschätzt bzw. bringt keine langfristige Leistungssteigerung.

Bei fast allen Szenarien, bei denen viele Dateien in einem Verzeichnis gelesen werden (und wo daher eine logische Anordnung der Dateien auf der HD was bringt), werden auch viele Dateien geschrieben. Beispiel Mail, iPhoto, iMovie, etc. Wenn Du solche Verzeichnisse Defragmentiert halten willst, dann musst Du sie nach jedem Benutzen der entsprechenden Anwendung defragmentieren. Da ist der Aufwand/Nutzen-Faktor einfach nicht gegeben.

Anders ist es bei einer fragmentierten Datei auf der Festplatte (z.B. ein Film). Diese wird einmal defrgmentiert und dann bleibt sie in diesem Zustand, solange man sie nicht verändert.

Fazit: ich glaube Dir schon, dass Du momentan eine Leistungssteigerung durch Deine Aktion bemerkst, ich glaube aber leider nicht, dass diese lange anhält...

Gruß,
Jens
 
Moin,

einer sachlichen Diskussion waere es mE geschuldet, dass Du der Vollstaendigkeit halber die wichtigsten Rahmeneckdaten (Alter, RAM, Prozessor, Betriebssystem etc) der beiden Rechner nennst..!

Was braechte es (Konjunktiv! Hypothese! Keine Unterstellung!), wenn es sich um einen 'alten' iMac handelt, der grad noch so zB Leopard vertraegt und er sich mit einem funkelnagelneuen MacMini auf 10.6 misst... ;)

Der erste Gedanke beim Lesen war zugegebenermassen: vielleicht is der iMac schlichtweg zu schwach? :noplan:

fragt:
aargh11
 
Die angeführte Logik ist ohnehin sehr fragwürdig, da Festplatte ja aus mehreren Platten mit jeweils eigenen Schreib-,Leseköpfen bestehen.
Somit können Daten schneller geladen werden, wenn sie auf mehrere Platten verteilt abgelegt werden, als wenn sie in einem Block auf einer Platte liegen.

Stimmt nicht! Es gibt natürlich für jeden Platter, bzw für jede Seite eines Platters einen eigenen Kopf. Allerdings sind diese Köpfe alle auf einem Arm befestigt und können daher nicht unabhängig voneinander bewegt werden.
http://upload.wikimedia.org/wikiped...pened.jpg/800px-Samsung_HD753LJ_03-Opened.jpg
 
Zurück
Oben Unten