20.000 Terabyte

Che la struttura hardware e software utilizzata da Google mi abbia sempre affascinato non è una novità ma leggere [1] [2] che ogni giorno i server di BigG processano 20000 Terabyte di dati mi ha lasciato di sasso …. 20000 Terabyte!

Segnalo inoltre una vecchia ma interessante whitepaper contenente uno studio di Google sulle failure del loro sistema di storage che, forse per una scelta molto pragmatica, non è composta da costosi dischi SCSI ma da montagne di economici e comuni dischi ATA.

wd_1tb.gif
WordPress Appliance - Powered by TurnKey Linux