L’importanza di un metodo scientifico nell’analisi dello storage

Nel 1713 il matematico svizzero Nicola Bernoulli pubblica il trattato postumo Ars Conjectandi dello zio Jacob, anche lui noto matematico. Si tratta di un testo storico per la matematica che eleva il Calcolo delle Probabilità a disciplina di grande interesse.

La famiglia Bernoulli è stata certamente quella che ha desiderato più di tutti che il Calcolo delle Probabilità diventasse finalmente qualcosa di più di un gioco e che potesse realmente risolvere importanti questioni “professionali”.

A distanza di 305 anni, il testo sacro della probabilità, i suoi teoremi e le sue conclusioni rappresentano ancora la base per una metodologia di grande aiuto alle aziende. L’arte di fare delle congetture sui dati oggi è demandata ai software che, grazie alla potenza di calcolo raggiunta dai computer, sono utilizzate nei campi più diversi: dalla finanza (Fintech) all’Agricoltura, dalla Produzione Industriale al mercato Retail passando per la Meteorologia. In tutti l’obiettivo rimane sempre lo stesso: prevedere e pianificare comportamenti futuri dall’analisi dei comportamenti passati.

Uno Informatica ha esteso l’utilizzo di tali metodologie all’ambito IT così da prevedere in tempi brevissimi le modifiche richieste a un’architettura IT per continuare a essere all’altezza delle necessità di un’azienda.

Le aziende utilizzano ambienti storage (IBM e non) e server (IBM Power Systems e x86) estremamente dinamici e mutevoli. Se non si percepisce in tempo la necessità di un assessment, si rischia di dover intervenire in emergenza e in extra-budget.

Siamo di fronte ad ambienti tecnologici vitali per un’azienda, che anche in tempi di elevata complessità devono continuare a erogare i servizi a cui sono predisposti. Si tratta di architetture in continua evoluzione, da ridimensionare o da espandere velocemente per soddisfare nuove esigenze di business, come l’apertura di una nuova filiale o di un nuovo polo produttivo.

L’arte di apprendere dai dati: il Capacity Planning

Di fronte a uno scenario così dinamico diventa fondamentale l’innovativo approccio tipico del Calcolo delle Probabilità che, in base all’esperienza è in grado di fare previsioni per il futuro. È esattamente l’arte di apprendere dai dati che ha cercato di trasmetterci Bernoulli. Grazie a un approccio dati-modello-dati assolutamente scientifico, Uno Informatica è in grado di fornire valutazioni molto precise e dimostrabili sullo stato e sulla relazione presente/futuro dell’infrastruttura storage e server dell’azienda cliente.

Il modello scientifico di Capacity Planning basato su tool come Spectrum Control di IBM, prevede l’analisi della piattaforma storage e server preesistente, l’acquisizione di informazioni che riguardano lo spazio occupato a regime, il flusso dei dati, la velocità di elaborazione e di trasferimento ecc. tutto in maniera indipendente dalla specifica architettura.

Ogni cliente, però ha esigenze diverse. È dunque fondamentale integrare il modello standard con un’analisi personalizzata della situazione. Ed è qui che il valore aggiunto di un partner esperto in storage come Uno Informatica fa la differenza. Un partner visionario che per primo e ancora unico ha portato questo approccio statistico all’interno delle metodologie tradizionale di Capacity Planning.

Sarebbe facile proporsi come opportunistici salvatori della patria e fare tabula rasa del preesistente. Uno Informatica preferisce fornire una visione il più possibile realistica del futuro basata su dati oggettivi e con obiettivi conservativi che valorizzino, ove possibile, gli investimenti già effettuati.

Post suggeriti

Inizia a digitare e premi Enter per effettuare una ricerca

Uno InformaticaUno Informatica