Eine solche Studie zu machen ist gar nicht so einfach. Ich habe diese Site gefunden, die dann weiter auf eine USENIX Konferenz verlinkt;
http://lwn.net/Articles/237924/
die Schwierigkeit einer solchen Studie ist, dass man eine statistisch signifikante Anzahl Platten braucht. sagen wir mal 100'000.
dann muss die Studie über Jahre laufen.
dann muss die Studie in so einer Form publiziert werden, dass es nicht Gerichtsklagen hagelt.
die erste dort verlinkte Studie
http://usenix.org/events/fast07/tech/schroeder/schroeder_html/index.html geht ziemlich tief in die ganze Methodik.
die zweite
http://usenix.org/events/fast07/tech/full_papers/pinheiro/pinheiro_html/index.html betrifft (so nehme ich an) die von pagefault genannte Google Studie.
Summa summarum besagen beide:
dass die in den Datasheets der Hersteller genannten MTBF-Zahlen viel tiefer sind als die durch die Studien empirisch nachgewiesenen Ausfaelle (3% Ausfallrate gegenüber den Herstellerangaben von 0.5 - 0.9%, die Google-Studie sagt sogar 1.7% bis 8.6%).
dass der Plattentyp keine Korrelation zur Ausfallrate hat.
dass es keine inverse Eulersche Kurve (Badewannenkurve) des Ausfall-Zeitpunktes gibt.
dass es eine Korrelation zwischen Ausfall und erneuten Ausfall im selben Array gibt (RAID!). Arrays werden typischerweise aus dem gleichen Produktions-Batch montiert.
dass nur eine schwache Korrelation zwischen Plattennutzung (geschriebene und gelesene Datenmenge) und Ausfall besteht.
dass die Korrelation von Betriebstemperatur und Ausfall invers ist. das heisst, dass kalte Platten schneller aussteigen als warme.