iBook G3 - Interne Festplatte zu langsam?

Mich wunderd gerade das scheinbar die normalen Platten 4500 U/min haben, aber meine bto 60 GB Platte 300 U/min weniger hat!
Nur interesse halber, hat das irgendwelche fühlbaren Auswirkungen?

--
NeoSD
 
afaik ist 4500 nur bei 3,5'' platten
deine platte ist normal, kein grund zur beunruhigung ;)
mein spruch war ein kleiner flame an den, der es wagte mich zu korrigieren
 
Original geschrieben von iPoddy
[...]mein spruch war ein kleiner flame an den, der es wagte mich zu korrigieren
 

hm kannst du keine Kritik ertragen?

funnypost.gif
 
Original geschrieben von iPoddy
mein spruch war ein kleiner flame an den, der es wagte mich zu korrigieren
 

auch wenn dies vielleicht ein Spaß war (mir kam es allerdings eher wie ein "Beleidigte-Leberwurst-Beitrag" vor): ich hoffe, du hast mittlerweile bemerkt, dass solche Provokationen hier nicht besonders gern gesehen sind. Nicht umsonst ist dieses Forum so beliebt - im Gegensatz zum Heise-Forum.
 
jwolf: einverstanden. aber, wäre ich ein beliebtes geselliges wesen, würde ich vielleicht im radio moderieren oder mit grundschülern malen. nein, ich kenne mich mit hardware aus. dafür sind misanthropische arschlöcher wie ich prädestiniert.
außerdem bin ich rechthaberisch. ich habe gesagt, dass die platte fragmentiert war. wer das bestreitet, sollte alternative ursachen nennen.
 
Original geschrieben von HAL9500
Aha, haben wir eine Ferndiagnose gemacht? Davon abgesehen, sollte
es sich auch unter den Switchern rumgesprochen haben, das Panther
sich selber defragmentiert.
Ja, Panther, bzw. das HFS+ System geht defragmentierend vor beim Speichern und untersucht auch Dateien auf Fragmentierung:

Öffnet das System eine neue Datei (zum Lesen) und ist diese Datei nicht bereits von anderen Programmen gleichzeitig geöffnet, so defragmentiert das neue HFS+-System automatisch diese Datei, sofern sie kleiner als 20 MByte ist. [...] Generell muss gesagt werden, dass das Dateisystem HFS+ sowieso nicht besonders anfällig gegenüber Fragmentierungseffekten ist. Das System verwendet bereits eine durchdachte Technik beim Reservieren von Speicherblöcken für Dateien, die eine Fragmentierung auch so schon minimiert. Bei älteren DOS-Systemen aus der PC-Welt war das anders: Das dort verwendete FAT-Dateisystem war ursprünglich für kleine 160KByte-Disketten gedacht und brauchte deshalb zunächst keine besonderen Techniken, die beim Anlegen von Dateien deren Anordnung auf dem Speichermedium optimierte. Da FAT dann aber mehr oder weniger unverändert auf Festplatten übertragen wurde, kam es dot zu massiven Geschwindigkeitseinbußen, als die Platten- und Dateigrößen anstiegen. Aus diesem Grund wurden dort Defragmentierungsprogramme entwickelt, die man von Zeit zu Zeit aufrufen konnte, um Platten zu optimieren.
Auf heutigen Systemen wie HF+, UFS oder NTFS spielt die Fragmentierung nicht mehr eine so große Rolle. Bereits beim Schreiben einer Datei untersucht das Betriebssystem, wie es die Daten möglichst geschickt auf der Platte anordnet, so dass der spätere Lesezugriff schnell erfolgen kann.
[...]
Eine weitere Optimierungstechnik ist das so genannte Hot File Clustering. Diese Technik ist intern an Journaling gekoppelt und wird nur auf dem Systemvolume verwendet. Mac OS X untersucht hier in regelmäßigen Abständen von ca. 60 Stunden Betriebszeit, welche Dateien am häufigsten benötigt, d.h. gelesen wurden. Außerdem wird ein gewisser Speicher bereich (ca. 0,5%) reserviert, auf den besonders schnell zugegriffen werden kann.
 
hmmm,

da les ich jetzt aber noch nicht wirklich raus, das panther wirklich aktiv defragmentiert.
Wenn ich meine Platte schon 50 mal mit Grösseren files (über 20 MB) voll und wieder halb leer und wieder mit anderen Daten zugemüllt habe, wie siehts dann aus?
Gibt es einen Terminalbefehl, mit dem man sozusagen manuell defragmentieren kann?
 
Was macht Panther denn, wenn ich ein Software-Update (z.B. Safari) installiere? Es rödelt dann doch auch auf der Festplatte herum "optimiere..." o.ä. Was wird da genau gemacht? Eine Defragmentierung?
 
Original geschrieben von JWolf
Was macht Panther denn, wenn ich ein Software-Update (z.B. Safari) installiere? Es rödelt dann doch auch auf der Festplatte herum "optimiere..." o.ä. Was wird da genau gemacht? Eine Defragmentierung?
 

Dabei wird das PreBinding ausgeführt, um das System zu optimieren.

Ein Betriebssystem verwaltet nicht nur einen Computer, sein zweite große Aufgabe ist es, den Anwenderprogrammen Funktionen zur Verfügung zu stellen. (Aufklappmenüs wie "Menü anzeigen" oder "Aufklappen animieren")
Dazu wäre es unsinnig das Rad jedes Mal neu zu erfinden. Deswegen kann man Funktionen aus dem System aufrufen.

Damit diese Aufrufe zwischen Programm und OS funktionieren, muss ein spezieller Vorgang stattinden, der sich "Binden" nennt. Hier werden die die Aufrufe an die entpsrechenden Funktionen im System angeschlossen, so dass sie danach einsetzbar sind. Früher hat man das beim Schreiben des Programms gemacht und teilweise eine Menge Speicherplatz verschwendet mit doppelten Funktionen. Heute wird in modernen Systemen der Binding-Vorgang erst beim Programmstart gestartet. (dynamisches Binding) Vorteil dabei ist, dass die Programme wesentlich kleiner sein können (sowohl im RAM als auch auf der Platte). Außerdem kann der Hersteller des OS bei einem Update Funktionen aktualisieren, z.B. um Fehler oder Sicherheitsrisiken zu korrigieren. Nachteil ist die Verlängerung der Ladezeit, die durch das Binding entsteht und uns allen geläufig sein dürfte.
Systemoptimierung:
Wird ein Programm installiert, so kann es auch schon im Vorraus dynamisch gebunden werden. Bei diesem Prebinding werden alle Programme untersucht und an die entsprechenden Bibliotheken angeschlossen. Die hierbei berechneten Informationen werden einfach in die Programmdateien eingebaut. Durch dieses Vorausberechnen wir der Ladevorgang aller Programme verkürzt. Das System schaut nur noch, ob die Prebinding-Information noch aktuell ist. Falls ja, kann sie sofort verwendet werden, falls nein, findet ein normales Binding statt.

Nötig ist die Optimierung nur, wenn ein Systemupdate oder ein neues Programm installiert wird. Bei Letzerem muss dann nur die Prebinding-Info für das Programm erstellt werden.
Ein erneutes Ausführen des Prebindings ist also nicht sinnvoll, weil das System das alles selbst erledigt und auch nicht schneller wird dadurch.
 
Re: hmmm,

Original geschrieben von banz
da les ich jetzt aber noch nicht wirklich raus, das panther wirklich aktiv defragmentiert.
Wenn ich meine Platte schon 50 mal mit Grösseren files (über 20 MB) voll und wieder halb leer und wieder mit anderen Daten zugemüllt habe, wie siehts dann aus?
Gibt es einen Terminalbefehl, mit dem man sozusagen manuell defragmentieren kann?
 

Dafür gibt es auch ein spezielles Tool, das bisher einzigartig ist (behauptet der Hersteller und ich konnte nichts anderes finden):
Die SpeedTools können zwar mehr als Defragmentieren, kosten aber gleich 90$. Es ist auch vorsichtig zu geniessen beim Kauf. Manchen Leuten ist der Download abgebrochen und INtech fühlt sich nicht zuständig. Denn ist die Software verloren, hat man halt Pech gehabt.

DefragWindow.gif
 
Original geschrieben von Grady
Dabei wird das PreBinding ausgeführt, um das System zu optimieren.
 
hmmm... deine Erklärung in Ehren, ich denke, ich habe sie auch mehr oder weniger verstanden ...:rolleyes:

Aber: was ist denn der Vorteil dieses Prebindings gegenüber z.B. "Libraries" unter AmigaOS (z.B. GadTools für Gadgets, Reqtools für Requester usw.) oder DLLs unter Windows? Damit werden diverse Betriebssystemfunktionen allen Programmen zur Verfügung gestellt, so dass nicht jeder das Rad neu erfinden muss. Ein Prebinding war da nicht nötig. Ist dies nur bei OSX so oder gibt es dies grundsätzlich bei allen Unix-Systemen?

Oder habe ich das Prinzip doch falsch verstanden? :confused:
 
Zurück
Oben Unten