Secondo uno studio recente di Persistence Market Research il mercato dello storage per i Big Data passerebbe in dieci anni dai circa 10 milioni di dollari del 2016 all’incredibile valore di 60 miliardi di dollari nel 2026. Un incremento anno su anno del 20,4% che neanche negli anni ’90, ai tempi d’oro dell’Informatica.

Ciò significa una cosa sola, in qualsiasi regione geografica e per qualsiasi tipo di azienda in qualsiasi settore, il focus sulla gestione dei dati, componente fondamentale della Digital Transformation, richiede una revisione degli apparati in cui questi dati sono raccolti e archiviati.

Sempre secondo la ricerca, infatti, la componente hardware pesa per quasi la metà (49,1%) del totale del valore del mercato dello storage per i Big Data. La necessità della revisione dell’infrastruttura di storage per le aziende deriva anche dalle richieste della cosiddetta compliance, ovvero le regolamentazioni che nel corso degli ultimi anni hanno posto come obiettivo la tutela della privacy e del dato in generale. Il GDPR europeo ne è il classico esempio.

Rivedere lo storage che si ha in casa è fondamentale per tutelarsi dalle richieste delle normative di trattamento dei dati come il GDPR.

Un’azienda oggi non può permettersi di pagare per l’incuria con cui gestisce i propri dati e quelli dei loro clienti: deve garantirne la tutela e la sicurezza, anche e soprattutto quando questi dati sono frutto di interscambi digitali tra fornitori, intermediari e clienti nella catena del valore.

I dati utili a un’azienda crescono esponenzialmente

In questo contesto è ormai ben evidente che non si può prescindere da tecnologie affidabili, sicure e ad accesso veloce come le tecnologie Flash. In quest’ambito è ben nota la leadership di IBM nel settore, ma lo stesso produttore non si culla negli allori e prosegue nello sviluppo della sua roadmap tecnologica, per esempio con i recenti FlashSystem 9100.

Parlando di Big Data, inoltre, è fondamentale concentrarsi sull’elaborazione dei dati raccolti. L’archiviazione dai software legacy e la raccolta dei cosiddetti Alternative Data, ormai ritenuti fondamentali tanto quanto gli “ordinari”, richiede, come detto, un certo tipo di hardware. Ma, allo stesso modo, certe tecnologie come quelle dei sistemi Flash, diventano rilevanti anche nella elaborazione dei dati. Quindi, raccolta ed elaborazione.

Ma, quando si parla di elaborazione, si tende a pensare alle capacità di calcolo dei sistemi hardware ma non abbastanza alle prestazioni dello storage. In un contesto più ampio, parlando di Intelligenza Artificiale, negli ultimi anni ci sono state delle evidenze che devono far riflettere.

L’incremento delle prestazioni in ambito Deep Learning e processori grafici è stato eccezionale. Nello storage non tutti i vendor si sono adeguati alle nuove esigenze.

Un sistema di Intelligenza Artificiale ha bisogno di tre asset fondamentali: il deep learning, le GPU (Graphic Processing Unit) e i Big Data. Ebbene, si pensi che in appena due anni gli algoritmi di deep learning hanno migliorato la loro efficacia di un fattore 15. Mentre, le GPU sono cresciute di 10 volte in termini di capacità di elaborazione.

Big Data: anche lo storage deve fare la sua parte

E i Big Data? Ebbene, l’evoluzione delle tecnologie in ambito Big Data dipende enormemente dalle tecnologie dello storage. Abbiamo già detto che la tecnologia Flash garantisce una maggiore affidabilità e velocità d’accesso, oltre che ovviamente più spazio, ma è sufficiente?

A una tecnologia certamente adatta alle nuove necessità, è opportuno accostare qualche pennellata di innovazione in più. I nuovi sistemi FlashSystem 9100, per esempio, garantiscono una disponibilità dei dati del 99% con altri quattro nove dopo la virgola (99,9999%). Lo spazio e la scalabilità arrivano dal supporto dell’interfaccia NVM e altre caratteristiche innovative forniscono deduplica e compressione accelerata di tutto rispetto.

Infine, la console di gestione Storage Insights di IBM, opportunamente configurata dai partner, permette di avere sempre sotto controllo la situazione. In definitiva, oggi storage non è solo archiviazione: le esigenze dei Big Data oggi chiedono che storage sia sempre di più anche elaborazione.

CONTATTACI PER UNA CONSULENZA PERSONALIZZATA