20.000 Terabyte

Che la struttura hardware e software utilizzata da Google mi abbia sempre affascinato non è una novità ma leggere [1] [2] che ogni giorno i server di BigG processano 20000 Terabyte di dati mi ha lasciato di sasso …. 20000 Terabyte!

Segnalo inoltre una vecchia ma interessante whitepaper contenente uno studio di Google sulle failure del loro sistema di storage che, forse per una scelta molto pragmatica, non è composta da costosi dischi SCSI ma da montagne di economici e comuni dischi ATA.

wd_1tb.gif

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

WordPress Appliance - Powered by TurnKey Linux