Mark Whitby, SVP di prodotti di marca a Seagate, ci guida attraverso l'affascinante mondo dello storage, avvertendoci dei pericoli di non produrre dati sufficienti e di introdurci al concetto di Zettabyte. Il mondo, dice, produrrà 44 di questi entro il 2020, il che potrebbe non sembrare molto finché non si considera che un Zettabyte è 10 ^ 21 byte.

TechRadar Pro: parlaci un po 'di più di Seagate

Mark Whitby: Seagate è un fornitore leader di dischi rigidi e soluzioni di archiviazione. Dai video, musica e documenti che condividiamo con amici e parenti sui social network, ai server che costituiscono la spina dorsale dei data center aziendali e del cloud computing, ai computer desktop e notebook che alimentano la nostra produttività personale, i prodotti Seagate aiutano più persone a conservare , condividere e proteggere i loro preziosi contenuti digitali.

Seagate offre uno dei più vasti portfolio di hard disk, unità a stato solido e unità ibride a stato solido. Inoltre, l'azienda offre una vasta linea di prodotti di archiviazione al dettaglio per consumatori e piccole imprese, insieme a servizi di recupero dati per qualsiasi marca di disco rigido e tipo di supporto digitale.

La società ha sviluppato la prima unità disco fisso (HDD) da 5,25 pollici al mondo nel 1980 e, a marzo 2013, Seagate è diventata anche la prima azienda produttrice di storage a spedire due miliardi di unità in tutto il mondo. Seagate ha sede a Cupertino, in California e impiega più di 50.000 persone in tutto il mondo.

TRP: perché le persone dovrebbero preoccuparsi dello spazio di archiviazione?

MW: I dati non sono mai stati più importanti. Così prezioso come il petrolio e altrettanto difficile da estrarre, modellare e gestire, i dati stanno rapidamente diventando una risorsa vitale per le aziende di tutto il mondo.

Le aziende di piccole e grandi dimensioni stanno muovendo i primi passi nell'analisi dei dati, desiderosi di ottenere informazioni su come i loro clienti si comportano e quindi posizionarsi meglio sul mercato. Anche se ancora nella sua infanzia, l'analitica detiene il potenziale per consentire a un giorno di trovare soluzioni, vendere più prodotti e sviluppare la fiducia dei clienti.

Mentre la maggior parte delle aziende deve ancora determinare come ottenere il massimo dai dati esistenti, per non parlare delle masse di dati non strutturati provenienti dall'esterno della loro organizzazione, accettano il loro potenziale. Il vantaggio competitivo di domani potrebbe essere guidato dalla capacità di identificare rapidamente i dati corretti, raccoglierli, analizzarli e agire su di essi.

Al fine di accumulare questo prezioso archivio digitale, tuttavia, deve prima essere pronta la capacità di archiviazione. E al fine di generare tutto il valore possibile da questi dati, deve anche essere memorizzato in modo tale da essere rapido nell'accesso, efficiente da gestire e a basso costo da mantenere. Sfortunatamente, qui sta il problema.

I data center oggi non sono attrezzati per essere in grado di gestire l'afflusso anticipato generato dall'Internet of Things, né sono orientati ad alimentarlo agevolmente attraverso le piattaforme di analisi dove può dimostrare il suo valore. Ci sono poche possibilità che miliardi di dischi rigidi basati su silicio in tutto il mondo saranno in grado di tenere il passo con il flusso di dati guidato dai 26 miliardi di dispositivi connessi (esclusi 7,3 miliardi di smartphone, tablet e PC) che Gartner predice sarà in uso entro il 2020.

TRP: Quale pensi che sarà la principale sfida per l'industria dello storage nei prossimi 5 anni?

MW: Tre parole: gap di capacità dei dati.

Stiamo entrando in un mondo in cui tutto si collega a tutto il resto e si prevede che i grandi dati risultanti risolvano praticamente tutti i nostri problemi. Tuttavia, entro il 2016, i dischi rigidi ospitati in tutti quei dispositivi collegati, che ronzano in innumerevoli data center, inizieranno a raggiungere i loro limiti.

La quantità totale di dati digitali generati nel 2013 era di circa 3,5 zettabyte (ovvero 35 con 20 zeri successivi). Entro il 2020, produrremo, anche con una stima prudente, 44 zettabyte di dati all'anno.