Interne Platte defragmentieren:

Ja, sowas braucht man auf anständigen Computern nicht
 
Beim Standarduser sicherlich - ich habe nach einer Zeit Lese/Schreibraten unterhalb 15 MB/s gehabt, die Defragmentierung hat sie wieder auf 60 MB/s gebracht.
Die Platte meines jetzigen iMacs läuft bald 5 Jahre rund, bekam seine OS Updates seit 10.4 immer via Installieren&Archivieren (also nie die Platte platt gemacht). Ich bewege, bearbeite und erstelle sehr oft Dateien größer als 6GB. Meine Platte hat stets mindestens 20-30% Platz frei und die Anzahl an Dateien liegt bei mehreren Millionen. Sie rennt fast wie am ersten Tag (AJA System Test). Also was auch immer OSX/HFS+ da macht, es funktioniert, bei mir jedenfalls. ;)
Ich bin vielleicht kein Standarduser (wie auch immer der definiert ist), aber von wegen Pflege für das Dateisystem oder das OS tat ich bisher nichts.
 
Ich hab meine Festplatte auch noch nie defragmentiert und verlasse mich da absolut auf Bordmittel.

Ausserdem (LosDosos) lese ich keine Threads die mehr als 100 Beiträge haben :D
 
Na, da hab ich aber einen aufschlussreichen Faden (zu deutsch: Thread) eingefädelt... Mir scheint, als sei iDefrag ein vertrauenswürdiges Programm, eine Art Krücke für zwei gesunde Beine also. Na, dann lassmamal lieber alles so wie's ist.
 

Das ist schön, dass es bei Dir läuft, ich vermute, bei 95% aller anderen User auch.

Mein System läuft zur Zeit seit ca 2 Jahren auch stabil.

Das ändert aber nichts daran, dass unter den genannten Umständen (#22) ein Defragmentieren sinnvoll sein kann.

Ich empfinde es immer als befremdend, dass, wenn jemand Probleme hat 10 andere User ankommen und sagen "bei mir ist das aber nicht so".
Das ändert aber nunmal nichts an dem Problem des besagten Users, das weiterhin existent ist.
(Oft merkt man das bei Threads wie"Mein System ist langsamer geworden" - Antwort "Bei mir nicht, kann nicht sein")

Fakt ist, dass on the fly bei Dateigrößen bis 20 MB funktioniert.
Wer über längeren Zeitraum mit großen Dateien auf einem relativ vollen Volumen arbeitet und Geschwindigkeitseinbrüche merkt, sollte die Zugriffszeiten der Platte messen.
Wenn diese extrem langsam sind, sollte er erst die Platte auf einen möglichen Defekt testen und kann dann überlegen, einen CCC-Klon zurückspielen.

Das ist übrigens kein großer Aufwand und hat mit "Systempflege" nicht viel zu tun.

Ein präventives regelmäßiges Defragmentieren mit Defragtools ist natürlich nicht sinnvoll, davon hat auch niemand gesprochen.

Ausserdem (LosDosos) lese ich keine Threads die mehr als 100 Beiträge haben
Deshalb habe ich auch nur Lundes Zusammenfassung und die Quelle verlinkt..;)
hier gibt es einen guten Artiikel zur Defragmentierung unter OS X. Da wird im Grunde bestaetigt, dass es beim haeufigen Veraendern und Verlagern von grossen Files auf einem relativ vollen Volume durchaus sinnvoll sein kann zu Defragmentieren.

http://www.macattorney.com/ts.html
 
D
Ich empfinde es immer als befremdend, dass, wenn jemand Probleme hat 10 andere User ankommen und sagen "bei mir ist das aber nicht so".
Das ändert aber nunmal nichts an dem Problem des besagten Users, das weiterhin existent ist.
Ich zielte viel eher auf die Aussagen ab, nach denen große Files irgendwie alle Maßnahmen des OS aushebeln würden. Hörte sich zumindest partiell so an und wollte anzeigen, dass dem nicht so sein muss.
Genauso befremdlich finde ich es übrigens, wenn irgendwelchen Leuten per default irgendwelche (z.T. fast gefährliche - hio Onyx) Tools nahegelegt werden, die sie mit ziemlicher Sicherheit gar nicht benötigen. Vorher mal überprüfen ob es sinnvoll bzw. nötig ist, könnte so manch einem so manches ersparen.
(Und gerade in solch einem Falle lässt sich die Notwendigkeit mit einem beliebigen HD-Speedtest ja recht einfach prüfen)
 
Nein, dem ist natürlich nicht so.
Ich arbeite nach wie vor mit großen Files, seit dem Einbau einer 640GB-Platte sind keine Geschwindigkeitseinbußen mehr zu spüren.

Bei der 250er, die immer mal wieder randvoll war, hat das Freischaufeln aber auch nichts mehr gebracht, auch bei 100 GB frei lagen die Raten konstant unter 15 MB/s, was ein Zeichen der Fragmentierung war (ShowVolumeFragmentation zeigte einen Fragmentierungsgrad von über 40% an).
Das war ein deutliches Zeichen dafür, dass man sich eben nicht immer auf die Routinen des OS verlassen kann und Defragmentierung in manchen Fällen durchaus nötig sein kann, wie gesagt, das neu Anlegen via CCC sorgte wieder für Zugriffszeiten >60 MB/s.

Von Tools wie Onyx rate ich ebenso ab, wie nach Windows-TuneUp-Gepflogenheiten ohne Not am System herumzufrickeln, dafür gibt es die Cronjobs.
Deshalb habe ich ja auch erwähnt, bei Problemen erstmal die Zugriffszeiten und Smart etc zu überprüfen.;)
 
"befremdlich" ist schon ein starkes Wort. Wir sind hier doch in einem Forum, da diskutieren wir und da brauchen wir uns nicht ständig zurechtweisen und korrigieren (Jemand hat einmal gesagt, der Deutsche habe kein Blut in den Adern, sondern Korrekturflüssigkeit. Das ist natürlich Unsinn, denn der Deutsche macht keine Fehler, sondern erkennt sie nur bei anderen).

Aber gut: Hab ich wieder was dazugelernt mit Onyx -- werd's gleich von der Platte putzen, das Teil! Ich hab überhaupt jetzt viel dazugelernt in diesem Faden (deutsch: Thread). Danke euch allen!
 
"Befremdlich" finde ich es, wenn in Threads User ihr Problem posten und statt einer Lösung allzu oft erstmal 10 Antworten kommen, dass das nicht sein kann, weil mans selber nicht hat.;)
(Kommt in anderen Threads a la "Mein System ist langsam geworden" oft vor)
 
@LosDosos
Ja, das ist in der Tat ein wenig seltsam. Erinnert mich an wen. Wenn ich dem erzähle, welche Macken mein Auto hat, sagt er: Nein, das kann gar nicht sein, denn... und dann kommen 10 Gründe, weshalb das nicht sein kann. Danach bin ich auch ungeheuer schlauer -- nur besteht mein Problem halt immer noch :) *quietschvergnügt*
 
Jetzt fangen hier aber einige an zu zanken. Ganz ruhig und sachlich bleiben. OSX ist von System her so programmiert (kommt vom UNIX), dass das System auf seine Dateistruktur selber aufpaßt. Und bitte schön ist es jedem selber überlassen, wofür er Geld ausgeben möchte. Auch ich habe mich vor langer Zeit mit der Frage des Fragmentierens und OSX auseinandergesetzt - und nein ich verwende keine Defrag-Tools. Wird verwenden so etwas nicht unter den UNIX Maschinen auf der Arbeit und auch haben wir dies damals nicht unter OS/2 (Filesystem ist in etwas so ähnlich) benötigt. Also wer "gute" Erfahrungen mit irgendwelchen Defragmentierungstools gemacht hat - bitte schön. Aber nötig sind diese absolut nicht. NTFS und FAT bzw. FAT32 haben diese Fragmentierung von Geburt an. Dies ist historisch gewachsen (denke da an die Diskette, wo schreib-/lesezugriffe noch nicht so schnell waren und die Geschwindigkeit erstmal eine Rolle spielte. Heute ist die Hardware so schnell, dass das Zerstückeln einer Datei sofort korrigiert wird. Dies hat M$ im nächsten Dateisystem auch schon vor einzuführen ist bis heute leider noch gescheitert, da dies bei M$ abwärtskompatibel bleiben muss.
 
Wir sind hier mehr als sachlich und wo zankt hier jemand?

Den Link von mir hast Du aber wohl nicht gelesen (ebenso wie meine letzten Beiträge) - getreu dem Motto "Es kann nicht sein, was sein sein darf":kopfkratz:
 
Ja, wir sind sehr sachlich. Niemand zankt. Das kommt mir beinahe so vor, wie wenn jemand schlafende Hunde aufweckt und sie zurechtweist, weil sie bellen :) :) :)
 
@LosDosos: http://de.wikipedia.org/wiki/HFS_plus noch ein Beweis (wenn auch wage, aber diese habe ich irgendwo auch mal in einem Buch über OSX gelesen.

Auch da steht nichts von Deiner Aussage - lediglich on the fly, was auch keiner bestritten hat - den Artikel hatte ich übrigens selber empfohlen.
Um es ein letztes Mal zu wiederholen: on the fly funktioniert bis 20 MB Dateigröße.:)

Ein letztes Mal verlinke ich auch diesen Artikel
hier gibt es einen guten Artiikel zur Defragmentierung unter OS X. Da wird im Grunde bestaetigt, dass es beim haeufigen Veraendern und Verlagern von grossen Files auf einem relativ vollen Volume durchaus sinnvoll sein kann zu Defragmentieren.

http://www.macattorney.com/ts.html

da aber sowohl meine Posts auf der vorherigen Seite also auch meine Aussagen mit Quellen ignoriert werden und stattdessen Halbwahrheiten verstreut werden ohne Beleg, verabschiede ich mich gepflegt aus dieser sinnlosen Diskussion, gesagt ist - für Interessierte - alles soweit..:Waveyib:

Für Apple-Jünger mit Halbwissen kann nicht sein, was nicht sein darf.:D
 
@LosDosos

Ich persönlich habe Dir geglaubt und tus immer noch...
 
  • Gefällt mir
Reaktionen: LosDosos
Gehe ich richtig in der Annahme:

Interne Platte mit CCC auf externe klonen und wieder zurück = interne Platte ist defragmentiert?

dafür gibt es auch ein sehr schönes Programm, welches sich FestPlattenDienstProgramm nennt und schon im System enthalten ist, die Option heisst, "wiederherstellen" 1:1 Klon, klappt IMMER Fehlerfrei, im Gegensatz zu CCC
 
Bitte beachtet in der Diskussion, zwei Sachen auseinanderzuhalten. Auch wenn das in verschiedenen Links hier zu lesen ist, möchte ich nochmals darauf explizit hinweisen. Erstens gibt es die File-Fragmentation und zweitens die Disk-Fragmentation.

File-Fragmentation bedeutet, dass die Datei in verschiedenen Fragmenten auf die Disk geschrieben wird. Das passiert, wenn im größten zusammenhängenden Bereich auf der HD nicht genügend freie Blöcke gefunden werden. OS X versucht beim nächsten Öffnen der Datei, diese Fragmentierung zu beheben. Dazu sind verschiedene Voraussetzungen notwendig. U.a. ist die Dateigröße auf 20 MB beschränkt.

Disk-Fragmentation hängt damit zusammen. Im Lauf der Zeit werden immer wieder Dateien geschrieben und gelöscht. Je größer die Dateien und je kleiner die Kapazität der HD kann sich dies signifikant auf die Leistung auswirken. Da die freien Bereiche der HD fragmentiert werden. Je höher die Fragmentierung des freien Platzes auf der HD, je weniger zusammenhängende freie Blöcke stehen zur Speicherung von großen Dateien zur Verfügung. Und damit steigt die Gefahr der File-Fragmentierung. Das ist wahrscheinlich die von LosDosos beschriebene Sache, dass bei ihm auf einer relativ kleinen Platte bei der Arbeit mit relativ großen Dateien Performance-Probleme aufgetreten sind.

OS X versucht auch eine Art Disk-Fragmentation, Stichwort Hot Files. Das betrifft afaik aber nur Dateien bis zu einer Größe von 10 MB.

File-Fragmentation ist die eine, Disk-Fragmentation die andere Sache. Es kommt wie immer auf die konkrete Nutzung an.
 
  • Gefällt mir
Reaktionen: LosDosos
huiiiii, guiler shice! Widder stößt gegen Hecke, und seine Hörner verhaken und verheddern sich. Das ist ein Zeichen für Schwierigkeiten am Anfang (Eck Chen).
Ich werde zu FPDP wechseln...

@macclub
Danke für die Info!
 
Zurück
Oben Unten