Defragmentieren doch wichtig?

Versteh ich auch nicht wieso immer alle gegen Microsoft oder andere große Softwarefirmen schreien das sie nichts drauf haben oder sontiges... Wer solche Projekte wie Windows oder sonstige große Softwareprojekte umsetzt weis das es nicht immer einfach ist und man meist auch nicht den vollen Funktionsumfang des Programmes geschweige denn den Sourcecode kennt kommt es nunmal vor das Sicherheitslücken entstehen.

Trotzdem finde ich eine entwicklung wie Windows oder auch die SAP Produkte nicht schlecht da einiges an KnowHow benötigt wird um so zu Arbeiten wie sie es auch meistens tun ;)

Ich Arbeite täglich mit dem Mac weil ich das OS sehr viel angenehmer finde weil sich damit einfach schneller Arbeiten lässt. Allerdings könnte man das ganze auch Problemlos mit Windows bewerkstelligen... ...aber darum geht es hier ja nicht und will deshalb auch gar nicht näher drauf eingehen.

Sry für Offtopic...

PS: Rechtschreib und Grammatikfehler dürft ihr behalten ;)

Gruß
 
Nur das OSX eben selbständig die HD defragmentiert. Bei Windows muss der Benutzer dies immer selbst anstoßen. d.h. Unter Windows wird nicht defragmentiert, wenn der User nix macht. Unter OSX muss der User nix machen, weil OSX bei Bedarf selbständig das Dateisystem defragmentiert. Darin liegt der Unterschied! Und ich denke das ist ebenfalls plausibel. :D

vista hat automatisches defrag on board, nur so als info für die skeptiker :)
 
Ne ich will echt ne Begründung. Ich meine wenn man hier mal so zuhört. Also die größte Softwarefirma der Welt (Microsoft) ist ja bei den meisten schonmal pauschal Kacke. Nun ist die drittgrößte (SAP) also auch noch Kacke und das sogar ohne das man es begründen könnte oder müsste. Fragt man sich......wie konnten die so gross und erfolgreich werden und bleiben!!?? Sind den bis auf ein paar Ultragenies, die wir zufällig und glücklicherweise hier im Forum haben, alle zu dumm um zu merken welchen Dreck die verkaufen?
Unser Unternehmen hat letztes Jahr komplett auf SAP ungestellt und ich kann prima damit arbeiten.

Ich meinte damit, dass ich SAP für sehr gut
halte und meine Aussage Ironie war.

Auch Microsoft halte ich für einen sehr guten Softwarekonzern.
Leider wissen hier im Forum viele nicht einmal,
dass Microsoft auch viel ausser Windows und Office macht.
 
vista hat automatisches defrag on board, nur so als info für die skeptiker :)
Das freut mich zu hören, aber das wurde auch langsam Zeit. Ewig musste ich Bekannte/Verwandte darauf aufmerksam machen, dass sie wenigstens mal jedes Jahr die Platte defragmentieren. Microsoft hatte also ein Einsehen!
 
Das freut mich zu hören, aber das wurde auch langsam Zeit. Ewig musste ich Bekannte/Verwandte darauf aufmerksam machen, dass sie wenigstens mal jedes Jahr die Platte defragmentieren. Microsoft hatte also ein Einsehen!

sehen wir es mal etwas weniger dramatisch:

1. es gab und gibt dutzende von defrag programmen die den job auch automatisch machen, gratis versteht sich
2. defrag bei normal usern einmal im jahr genügt auch

meinen alten compaq habe ich schon 2 jahre nicht defragmentiert und er läuft tip top. wird doch alles in den himmel gehyped bei solchen themen.
 
und lief deswegen der pc so langsam, dass an arbeiten nicht mehr zu denken war?
 
Ne ich will echt ne Begründung. Ich meine wenn man hier mal so zuhört. Also die größte Softwarefirma der Welt (Microsoft) ist ja bei den meisten schonmal pauschal Kacke. Nun ist die drittgrößte (SAP) also auch noch Kacke und das sogar ohne das man es begründen könnte oder müsste. Fragt man sich......wie konnten die so gross und erfolgreich werden und bleiben!!??
Genau aus dem Grund, warum MS so erfolgreich bleiben wird. Alle haben es. Zb kannst Du als Lieferant ohne SAP viele Kunden vergessen, die SAP benutzen, denn die wollen und können zt keine nicht-SAP Lieferanten verwalten...
 
und lief deswegen der pc so langsam, dass an arbeiten nicht mehr zu denken war?
Man kann den PC auch mit einer stark fragmentierten HD ohne weiteres verwenden, aber der PC-Start dauerte nach der Defragmentierung nur noch halb so lang... Und ich ich bekam zu hören: WOW, mein PC ist ja plötzlich schnell.
 
@Tesai:
Deshalb ja auch der Wow-Effekt! ;)

@lunde:
Nicht das ich deinen Aussagen in Post #43 nicht glaube, aber hast du da mal ne Quelle für mich zum nachlesen? Weil bei den in Post #2 und dem anderen genannten Link finde ich diese Infos nicht...
(Oder hab was überlesen..)
 
Da findest du alles. Wobei ich mich getaeuscht habe ist, dass files groeser 20 MB mit mehr als 7 extends zusammengeschrieben werden. Allerdings laesst sich das wohl aufgrund des Pufferes beim schreiben und lesen vernachlaessigen wenn es um die Positonierungsgeschwindigkeit des Kopfes bei grossen fragmentierten Dateien geht.
 
Zuletzt bearbeitet von einem Moderator:
Hallo Forum!

Jetzt muss ich auch mal meinen ersten Beitrag schreiben. :)

Ich hab mir den Thread mal durchgelesen weil mich das Thema auch interessiert. Mir ist aufgefallen dass hier anscheinend niemand das eigentliche Problem aufgegriffen hat.

Das HFS+ fragmentiert nicht. Ok.
ReiserFS fragmentiert auch nicht (es defragmentiert sich nicht selbst wie hier geschrieben).
Das ist ja schön und gut, betrifft aber nur große Dateien. Darum geht es aber bei den meisten Rechner gar nicht.
Das einzige was mich interessiert ist wie schnell starten Programme und wie schnell werden Dateien gefunden und gelesen.
Ich komm aus der Linux Ecke (mit etwas MS-Erfahrung) und da ist es bei Programmstart eigentlich immer so:
Das Binary muss mal geladen werden (wenn das Dateisystem nicht fragmentiert ist geht das ja flott). Aber dann kommt der Bremseffekt:
Die meisten (vor allem größere Programme) laden noch eine Vielzahl von Dateien nach, wie Konfig-Dateien, alle möglichen Imagedatein für ihre Icons, shared libs (falls die nicht schon/noch im Speicher liegen). Mal schnell unter Linux nachgezählt: Openoffice öffnet beim Starten 1620 Dateien (bzw. versucht es, viele sind halt nicht vorhanden, trotzdem ist da Suchvorgang im Dateisystem nötig). Grad nachgezählt: 614 Dateien werden tatsächlich geöffnet, der Rest wird gesucht und nicht gefunden.
Die Dateien mögen zwar alle unfragmentiert auf der Platte liegen, aber der Ort wo sie liegen kann auf der ganzen Platte verteilt sein->d.h. viele Kopfbewegungen daher langsam.

Warum sind sie auf der ganzen Festplatte verteilt:
Wenn man längere Zeit mit dem Computer arbeitet, dann entstehen viele freie Plätze in die bei einer Programminstallation die kleineren Dateien hinkopiert werden, geht ja nicht anders, würde man alles nur da hinkopieren wo viel Platz frei ist wäre eine halbvolle Platte schon voll.

Genau das ist der Sinn eines (guten!) Defragmentierungsprogramms:
1. Die Dateien sinnvoll umordnen, z.B. nach Verzeichnis. Wenn z.B. alle Dateien im OpenOffice-Verzeichnis hintereinander liegen (in einem Block) dann gehts schon viel schneller.
2. Alles nach vorne schieben, damit im belegten Platz erst keine Lücke ist, in der Dateien abgelegt werden können.
Unter Linux gibt es kein Programm zum defragmentieren, da hab ich ab und zu (vielleicht 1x im Jahr) mein Homeverzeichnes (160000 Dateien) weggesichert, gelöscht und zurückkopiert. Geschwindigkeitsvorteil beim suchen von Dateien ist enorm.

Dieser Fall tritt dann auf wenn öfter mal viele Dateien gelöscht werden.
Das verschieben in den Hotspace von Mac OS X ist nice, aber es steht dafür nur 0.5% des Plattenplatzes zur Verfügung.

Ich hab bei mir z.B. die MS-Office-Demo gelöscht und hab da halt ein schönes Loch wo jetzt alle andere Dateien liegen.

Die Idee nach dem Kauf eine Neuinstallation zu machen bei der die unnötigen Dateien weggelassen werden ist aus performancesicht schon mal besser als sie später zu löschen.

Fazit: ich denke auch dass es nach 6-12 Monaten was bringt zu Defragmentieren, sofern das Programm was taugt.

Und so nebenbei: Seit 2 Wochen höchst zufriedener iMac User :)
/jubeln
 
Das hat mit dem Thema nix zu tun, leider :)

Prebinding löst nur die Linkereinträge auf, was ohne Prebinding sehr zeitaufwändig ist. Linux hat das auch, heisst dort prelink.

Beim Programmstart müssen die echten Adressen der Routinen die in den shared libs liegen im Programm erst eingetragen werden, dazu müssten alle verwendeten shared libs geöffnet und nach den Symbolen durchsucht werden, braucht ewig und 2 Tage.
Ist auch eine Beschleunigung, hat aber mit Fragmentierung nix zu tun, die shared libs müssen trotzdem geladen werden sofern sie nicht schon im Speicher stehen.

Ich denke aber nicht dass das laden der shared libs einen großen Anteil an der Ladezeit hat, da sie meist im Speicher stehen.
BTW: bei der Software die ich unter Qt schreibe linke ich alle Hilfsdateien wie Pixmaps, Übersetzungen usw. in das Programm gleich rein, verkürzt die Ladezeit und das Programm besteht nur aus einem Executable.
 
Zurück
Oben Unten