Folgen Sie dem Video unten, um zu sehen, wie Sie unsere Website als Icon auf Ihrem Homescreen erstellen.
Anmerkung: This feature may not be available in some browsers.
Original geschrieben von iPoddy
[...]mein spruch war ein kleiner flame an den, der es wagte mich zu korrigieren
Original geschrieben von iPoddy
mein spruch war ein kleiner flame an den, der es wagte mich zu korrigieren
Ja, Panther, bzw. das HFS+ System geht defragmentierend vor beim Speichern und untersucht auch Dateien auf Fragmentierung:Original geschrieben von HAL9500
Aha, haben wir eine Ferndiagnose gemacht? Davon abgesehen, sollte
es sich auch unter den Switchern rumgesprochen haben, das Panther
sich selber defragmentiert.
Öffnet das System eine neue Datei (zum Lesen) und ist diese Datei nicht bereits von anderen Programmen gleichzeitig geöffnet, so defragmentiert das neue HFS+-System automatisch diese Datei, sofern sie kleiner als 20 MByte ist. [...] Generell muss gesagt werden, dass das Dateisystem HFS+ sowieso nicht besonders anfällig gegenüber Fragmentierungseffekten ist. Das System verwendet bereits eine durchdachte Technik beim Reservieren von Speicherblöcken für Dateien, die eine Fragmentierung auch so schon minimiert. Bei älteren DOS-Systemen aus der PC-Welt war das anders: Das dort verwendete FAT-Dateisystem war ursprünglich für kleine 160KByte-Disketten gedacht und brauchte deshalb zunächst keine besonderen Techniken, die beim Anlegen von Dateien deren Anordnung auf dem Speichermedium optimierte. Da FAT dann aber mehr oder weniger unverändert auf Festplatten übertragen wurde, kam es dot zu massiven Geschwindigkeitseinbußen, als die Platten- und Dateigrößen anstiegen. Aus diesem Grund wurden dort Defragmentierungsprogramme entwickelt, die man von Zeit zu Zeit aufrufen konnte, um Platten zu optimieren.
Auf heutigen Systemen wie HF+, UFS oder NTFS spielt die Fragmentierung nicht mehr eine so große Rolle. Bereits beim Schreiben einer Datei untersucht das Betriebssystem, wie es die Daten möglichst geschickt auf der Platte anordnet, so dass der spätere Lesezugriff schnell erfolgen kann.
[...]
Eine weitere Optimierungstechnik ist das so genannte Hot File Clustering. Diese Technik ist intern an Journaling gekoppelt und wird nur auf dem Systemvolume verwendet. Mac OS X untersucht hier in regelmäßigen Abständen von ca. 60 Stunden Betriebszeit, welche Dateien am häufigsten benötigt, d.h. gelesen wurden. Außerdem wird ein gewisser Speicher bereich (ca. 0,5%) reserviert, auf den besonders schnell zugegriffen werden kann.
ine Defragmentierung?
ich kenne mich mit hardware aus. dafür sind
misanthropische arschlöcher wie ich prädestiniert.
Original geschrieben von JWolf
Was macht Panther denn, wenn ich ein Software-Update (z.B. Safari) installiere? Es rödelt dann doch auch auf der Festplatte herum "optimiere..." o.ä. Was wird da genau gemacht? Eine Defragmentierung?
Original geschrieben von banz
da les ich jetzt aber noch nicht wirklich raus, das panther wirklich aktiv defragmentiert.
Wenn ich meine Platte schon 50 mal mit Grösseren files (über 20 MB) voll und wieder halb leer und wieder mit anderen Daten zugemüllt habe, wie siehts dann aus?
Gibt es einen Terminalbefehl, mit dem man sozusagen manuell defragmentieren kann?
Original geschrieben von Grady
Dabei wird das PreBinding ausgeführt, um das System zu optimieren.