Kernel-Task dreht völlig durch....

Halluziniert hier die AI?
Und da haben wir es: die KI hat es gesagt. :)

Im Einst: Was soll es denn bitte für einen Sinn haben, bei einer 1TB-SSD 200GB freizulassen? Oder 400GB bei einer 2TB? Oder 800GB bei einer 4TB?

Und wie ist es dann bei einer 200GB-SSD? Wieso reichen dann plötzlich 40GB freier plötzlich aus? Besonders vor dem Hintergrund, daß es sich in allen Fällen um das gleiche System mit den im wesentlichen gleichen Daten handelt? Das macht keinen Sinn.

Ja, es gibt einen Zusammenhang aus Füllgrad einer SSD, der Geschwindigkeit und Lebensdauer. Aber dafür sind bedeutend geringere Frei-Quotas entscheidend.

Ich bin nun schon seit locker 15 Jahren SSD-User und hab meine SSDs immer recht voll betrieben. 10GB reicht eigentlich locker. Ich konnte mich nie über irgendwelche Probleme beklagen.

Es hängt auch immer von der Nutzung ab. Wenn man, so wie bei mir, immer mal wieder plötzlich viel Daten entstehen können (z.B. beim Massen-Rebuilding von SW), sollte man min. den Platz für solche Fälle frei halten, sonst läuft einem die SSD vielleicht tatsächlich voll. Ich bin mir gerade nicht sicher, ob Nix nicht vielleicht selbst den Build abbricht, sobald die Platte zu voll wird.

Wer aber immer grob gleichbleibend viel auf der SSD hat, kann die SSD ruhig etwas voller fahren.
 
Und da haben wir es: die KI hat es gesagt. :)

Im Einst: Was soll es denn bitte für einen Sinn haben, bei einer 1TB-SSD 200GB freizulassen? Oder 400GB bei einer 2TB? Oder 800GB bei einer 4TB?

Und wie ist es dann bei einer 200GB-SSD? Wieso reichen dann plötzlich 40GB freier plötzlich aus? Besonders vor dem Hintergrund, daß es sich in allen Fällen um das gleiche System mit den im wesentlichen gleichen Daten handelt? Das macht keinen Sinn.

Ja, es gibt einen Zusammenhang aus Füllgrad einer SSD, der Geschwindigkeit und Lebensdauer. Aber dafür sind bedeutend geringere Frei-Quotas entscheidend.

Ich bin nun schon seit locker 15 Jahren SSD-User und hab meine SSDs immer recht voll betrieben. 10GB reicht eigentlich locker. Ich konnte mich nie über irgendwelche Probleme beklagen.

Es hängt auch immer von der Nutzung ab. Wenn man, so wie bei mir, immer mal wieder plötzlich viel Daten entstehen können (z.B. beim Massen-Rebuilding von SW), sollte man min. den Platz für solche Fälle frei halten, sonst läuft einem die SSD vielleicht tatsächlich voll. Ich bin mir gerade nicht sicher, ob Nix nicht vielleicht selbst den Build abbricht, sobald die Platte zu voll wird.

Wer aber immer grob gleichbleibend viel auf der SSD hat, kann die SSD ruhig etwas voller fahren.
Nun ja, die Prozentangabe geht ja auch von "üblichen" SSDs in den aktuellen Rechner aus, wie in diesem Falle 1TB. 50 GB = 5% seien frei, sagt der TE – für Systemupdates, Caches und Gedöns wäre mir das zu wenig. Nicht umsonst meckert hier ja auch EtreCheck, gell!?
 
Ich kann mir auch gut vorstellen, das APPs oder das OS Updates von Apple diesen Füllstand abfragt und dann das Update macht oder auch nicht.
Ob das jetzt logisch ist oder nicht.
 
Nun ja, die Prozentangabe geht ja auch von "üblichen" SSDs in den aktuellen Rechner aus, wie in diesem Falle 1TB. 50 GB = 5% seien frei, sagt der TE – für Systemupdates, Caches und Gedöns wäre mir das zu wenig. Nicht umsonst meckert hier ja auch EtreCheck, gell!?
Warum 50GB zu wenig sein soll, erschliesst sich mir nicht. Das entspricht nicht meiner nun wirklich langen macOS-Erfahrung. Und ich bin öfter mal unter 50GB frei gewesen. Null Problemo. Aber wie gesagt: die 20%-Frei-Regel war schon immer Unsinn, bzw. passt nur, wenn man zufällig eine gewisse SSD-Größe hat zu einem System. Bei einer 80GB-SSD würde die 20%-Regel in die andere Richtung unpassend sein.

Aber ist mir im Prinzip egal, wie du es handhabst. Verschwende meinetwegen den teuer bezahlten SSD-Platz.

Und inwieweit EtreCheck immer in allen Punkten unfehlbar ist...
 
Zurück
Oben Unten