Der Ruhezustand war "früher" nicht nur wegen des längeren Starts (allerdings mit HDD, mit SSD war mein 2011 in 30 sec neu gestartet), sondern auch wegen der Festplatten interessant, die wurden dann nämlich auch nicht kalt gestartet (was schonender ist).
2011 war man in der Entscheidung durch Apple noch nicht beschnitten ob man die von Apple verbauten lahmarschigen 5400U/Min Festplatten
länger und am besten noch im vollen Zustand verwenden möchte oder man schon eine SSD für eine deutlich bessere Performance und eine kleine Investition eingebaut hat.
Deutlich älter, aber Egal:
Google hat von Dezember 2005 bis August 2006 eine mal Studie über normale IDE-und SATA-Platten von 60 bis 400 GB anfertigen lassen.
Und zwar wegen ihren eigenen Servern. Nicht Desktop-PCs, sondern ihren selbstgestickten Servern.
Für die Studie wurden diverse Parameter über neun Monate erfasst und analysiert. Die allgemeine durchschnittliche Ausfallrate pro Jahr lag
bei 1,7 Prozent für neu installierte Laufwerke. Bei Festplatten ab dem dritten Einsatzjahr schnellte dieser Wert auf bis zu 8,6 Prozent hinauf.
Das Alter einer Harddisk spielt demnach eine entscheidende Rolle. Die Studie stellte zudem fest, dass die Lebensdauer je nach Hersteller und Modell sehr unterschiedlich ausfällt. Zu genau diesem Punkt wurden damals keine Details bekannt.
Viele Ergebnisse der Studie widersprechen noch früheren (älteren) Tests und denen die zur
Zeit aktuell mit solchen Geräten gemacht werden noch mehr und auf jeden Fall.
Wurden zum Beispiel ganz neue Festplatten zu Beginn übermäßig beansprucht, stieg ihre Ausfallrate auf ein ähnliches Niveau an, wie die erst bei 5 Jahre alten Modellen der Fall ist. Anderseits, wurden Festplatten mit einem Durchschnittsalter von 3 Jahren zu wenig genutzt, lag ihre Ausfallquote über den Festplatten mit normaler Beanspruchung.
Auch auf die Temperatur wurde näher eingegangen. Gerade zu dem Thema häufen sich damals bereits interessant viele Halbwahrheiten.
Die Temperatur spielt in den ersten zwei bis drei Jahren einer Festplatte fast gar keine Rolle. Lag die höchste Ausfallrate bei ganz
neuen Festplatten noch bei einer zu geringen Temperatur um die 20 Grad, sind Festplatten ab dem dritten Jahr bereits ab 35 Grad gefährdet.
Im Großen und Ganzen bleibt als Ergebnis festzustellen, dass für Festplatten ein verflixtes drittes Jahr zu bestehen scheint. Überleben die Festplatten das dritte Jahr, sehen die Ergebnisse im vierten Lebensjahr aus wie nach sechs Monaten oder im zweiten Lebensjahr. Ein endgültiges Ergebnis über den Zusammenhang von Temperatur und Lebensdauer konnten die Forscher allerdings auch an 100.000 getesteten Modellen nicht verkünden.
Das die ursprüngliche Studie steht bei Google leider nicht mehr zu Verfügung.
Macht auch nichts, es ist nur ein Beispiel von vielen.
Geht man mal von der technischen Weiterentwicklung und einer modernen Festplatte aus, kann man dieses "warm/kalt" getrost vergessen.
Es steht kein Rechner in einem Raum mit +50 Grad und auch nicht in einem Raum bei -50 Grad.
Die Rechner stehen stattdessen in normal temperierten Räumen.
Sie werden auch nicht ständig von im Winter draussen nach drinnen transportiert. Notebooks ausgenommen.
Angesichts moderner SSDs ist das warm/kalt so oder so kaum eine Frage.
Spezifikationen der Geräte geben den Temperaturbereich an in dem so ein Gerät mehrere 100.000 Stunden und mehr störungsfrei arbeitet.
Der Mac führte im Ruhezustand aber durchaus auch Cronjobs durch und man konnte per Terminalbefehl unterschiedliche Ruhezustände aktivieren, angesichts der aktuellen Startzeiten und heutiger SSDs macht das aber niemand mehr.
Womit der "Ruhezustand" der Festplatte oder SSD in der Form zumindest für die Zeit der Cronjobs so oder so absolut hinfällig ist.
(Da wird die Festplatte/SSD ja mitten in der Nacht warm :->)
Wegen "nächtlicher Aktivitäten" des Rechners einfach mal in die Meldungen der Konsole schauen (Protokollberichte).
Mein Rechner ist nachts ausgeschaltet, weil ich mein gesamtes Büro (home) nachts stromlos schalte. Ich habe reichlich Verbraucher und Peripherie, die auch im Standby noch Strom verbrauchen, das macht in der Summe fast 50 Watt! (Router und ein Canondrucker haben eine eigene Leitung, der Router wegen des wLan, der Drucker weil er nach einem Stromausfall ALLE Einstellungen vergisst… Der verbraucht aber im Standby wirklich nur 0,5 W)
Ein-, Ruhe- oder Ausschalten ist heute eher eine Geschmacksfrage
(es sei denn es hängen viele Geräte im Standby daran, die offiziellen 1 Watt, die die Hersteller angeben, sind oft Makulatur - ich habe mit einem Labormessgerät oft eher 2-5 Watt je Gerät gemessen, bei 15 Geräten …)
Genau, daher schaltet man sein Zeug ab wenn man es nicht braucht.
Bei einem NAS sieht das etwas anders aus. Lässt man tatsächlich am besten laufen.
Obwohl diese Geräte sogar Zeitschaltungen für Automatisches Hoch- und Herunterfahren integriert haben.
Liest man so manche Kommentare (nicht diesen hier) könnte man den Eindruck gewinnen das zu Hause ein irgend ein Wahn von
einer Hochverfügbarkeitszone in einem Datacenter vorherrscht in dem private Fotos und E-Mails 24/7/365 in unter 20 Sekunden erreichbar sein müssen :->
Nachhaltig ist und bleibt Ausschalten. Und auch nicht nur wg. den 2-5 Watt, sondern dafür weil es jeder so macht..
..sind die 2-5 Watt in einem Strassenzug mit 150 Mietparteien eben nicht nur 2-5 Watt.
Wenn das Ausschalten dein Mac nicht aushält hat der Hersteller was falsch, nicht der Benutzer.