Western Digital WD40EFRX

P

Pear

unregistriert
Thread Starter
Dabei seit
29.07.2005
Beiträge
495
Reaktionspunkte
20
Ob Du die Platte einfach in ein NAS stecken und weiterverwenden kannst (sprich, ob Du sie ggf. neu formatieren musst) hängt vom NAS ab...
 
ok, das kann ich bei Zeiten ja dann sehen. Notfalls findet sich schon eine Lösung die Daten kurzzeitig irgendwo zu parken. ;)

Generell sind ja die WD Red die robusteren oder?
 
Nun ja ... sie ist ausgelegt auf 24/7 - was zwar bedeutet dass sie den Dauerbetrieb abkann im Umkehrschluss aber bedeuten kann, dass sie kein tägliches (mehrfaches) Ein- und -Ausschalten / Anlaufen mag.
 
Naja der Plan ist eher die Festplatte nicht täglich zu benutzen. Vielmehr sollen die Daten da einmal rauf und nur ab und an bei Bedarf (alle paar Wochen vielleicht) benutzt werden. Spötter würden sie vielleicht als Datengrab bezeichnen. Sind Messdaten meiner Dissertation die ich 10 Jahre aufheben muss. Deswegen Datengrab :D
 
Sind Messdaten meiner Dissertation die ich 10 Jahre aufheben muss. Deswegen Datengrab :D
Das übernimmt das department der zuständigen Universität für dich. Bei weiteren Fragen kannst du dich gerne melden.
 
Ich würde erst mal klären ob der Firmwarebug behoben ist den ALLE der 4TB Modelle und die aktuelle Serie der 3TB Platten hatte (haben) weg ist.

Stichwort Load Cycle Count.

ich hab 12 davon in meinem NAS (3TB) und bin verschont davon geblieben.

Alternative:
http://www.amazon.de/dp/B00D1GYO4S/...olid=2D5B1F8XHID17&coliid=I275661S71CQ9&psc=1

Meines Wissens haben die RED Patten das Problem nich da die Köpfe nicht parken. Meine 4 REDs klacken jedenfalls nicht alle 8 Sekunde wie die Green die ich dann mit WDidle Programm bearbeiten musste. (Bei der WD Green 4TB ging mein count nich hoch, aber das andauernde Parken nervte mich.
 
Zuletzt bearbeitet:
Also bei Amazon wird gezielt von den RED gesprochen die das Problem auch haben.
 
Meine hats nicht. Und wenn schon, nimmt man halt das wdidle3 oder den OpenSource-Nachbau falls es auftreten sollte. Dauert auch nur 5 Minuten...

Hatte bisher noch keine Probleme mit meinen 6 Greens, obwohl die angebenlich nach 2 Jahren ne recht hohe Ausfallrate haben sollen (Sagt das Netz vermutlich über alle Platten ...). Bei mir laufen sie aber auch nicht immer, da mein NAS auch eher als "anklemm Backup-Lösung" genutzt wird.
Meine einzige RED hat schon einiges an Fehlern, wobei ich glaube das mein 12V Netzteil aktuell Probleme macht, und es an schwankender Spannungsversorung liegt. Habe auch aktuell nur 1 Exemplar, also keine brauchbare Statistik dazu..

Aber was auch immer. IMHO tut sich da eh nichts zwischen den Herstellern, und zwischen den 100 Modellen die WD da gerade auf den Markt haut tut sich glaube ich auch nix, außer ne andere FIrmware. Wenn du richtig andere Quallität haben willst, brauchst du halt ne WD RE4 oder Seagate Constellation. Aber ob sich das lohnt, wenn dus eh nur als Datengrab nutzen willst... vermutlich nicht. Deshalb hab ich hier 6 WD greens mit je 3TB rumliegen.

Code:
[root@radon xen]# smartctl -a /dev/sda

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red (AF)
Device Model:     WDC WD30EFRX-68EUZN0
Serial Number:    WD-WMC4N2081426
LU WWN Device Id: 5 0014ee 003c25a7b
Firmware Version: 80.00A80
User Capacity:    3.000.592.982.016 bytes [3,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Tue Jul  1 19:11:41 2014 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   182   161   021    Pre-fail  Always       -       5866
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       39
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       2
[B]  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       129[/B]
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       39
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       5
[B]193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       79[/B]
194 Temperature_Celsius     0x0022   118   107   000    Old_age   Always       -       32
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
ATA Error Count: 23554 (device log contains only the most recent five errors)
	CR = Command Register [HEX]
	FR = Features Register [HEX]
	SC = Sector Count Register [HEX]
	SN = Sector Number Register [HEX]
	CL = Cylinder Low Register [HEX]
	CH = Cylinder High Register [HEX]
	DH = Device/Head Register [HEX]
	DC = Device Command Register [HEX]
	ER = Error register [HEX]
	ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 23554 occurred at disk power-on lifetime: 111 hours (4 days + 15 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 61 02 00 00 00 a0  Device Fault; Error: ABRT

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  ef 10 02 00 00 00 a0 00      05:21:08.146  SET FEATURES [Enable SATA feature]
  ec 00 00 00 00 00 a0 00      05:21:08.145  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 00      05:21:08.145  SET FEATURES [Set transfer mode]
  ef 10 02 00 00 00 a0 00      05:21:08.145  SET FEATURES [Enable SATA feature]
  ec 00 00 00 00 00 a0 00      05:21:08.145  IDENTIFY DEVICE

Error 23553 occurred at disk power-on lifetime: 111 hours (4 days + 15 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 61 46 00 00 00 a0  Device Fault; Error: ABRT

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  ef 03 46 00 00 00 a0 00      05:21:08.145  SET FEATURES [Set transfer mode]
  ef 10 02 00 00 00 a0 00      05:21:08.145  SET FEATURES [Enable SATA feature]
  ec 00 00 00 00 00 a0 00      05:21:08.145  IDENTIFY DEVICE
  c8 00 08 b8 3e ac e3 00      05:21:08.134  READ DMA
  ef 10 02 00 00 00 a0 00      05:21:08.134  SET FEATURES [Enable SATA feature]

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed without error       00%       124         -
# 2  Extended offline    Completed without error       00%        71         -
# 3  Conveyance offline  Completed without error       00%        64         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

[root@radon xen]#
 
Zurück
Oben Unten