5 Motivi per cui il capacity planning è essenziale per il tuo business

Sommario: Il capacity planning rende possibile calibrare le risorse IT in funzione del loro livello di utilizzo, garantendo così alle aziende la massima operatività. La fase storica che ci troviamo a vivere è duplice: da una parte, l’effetto della pandemia da Covid-19 è stato quello di una maggiore domanda di digitalizzazione, che inevitabilmente si accompagna a uno sfruttamento più intenso delle risorse IT. D’altra parte, però, le imprese sono nel bel mezzo di una grave crisi economica, che aumenta i livelli di incertezza e mette sotto pressione i modelli di business. Difficile che, in un contesto di questo tipo, i reparti IT aziendali abbiano carta bianca per procedere ad acquisti e investimenti. Piuttosto, la richiesta sarà quella di accompagnare questo necessario passaggio al digitale con un contenimento dei costi IT. A cosa serve il Capacity Planning Come si possono far convergere queste due tendenze in apparenza inconciliabili? Per le imprese diventa fondamentale organizzare un adeguato capacity planning delle proprie risorse infrastrutturali (storage in particolare). Concretamente questo significa gestire le risorse IT a disposizione – sia quelle ospitate nei data center proprietari che quelle in cloud – per far sì che le applicazioni utilizzate dispongano sempre della necessaria capacità per funzionare correttamente, anche in prospettiva futura, così da assicurare la scalabilità. Ma come si può mettere in atto un capacity planning adeguato? Anche per i team IT può risultare complesso comprendere l’effettivo grado di utilizzo delle risorse e, soprattutto, prevederne l’evoluzione futura, che potrebbe essere anche dissimile rispetto alle traiettorie riscontrate nel passato. L’intelligenza artificiale come supporto Sempre più spesso, dunque, il capacity planning sta passando per l’utilizzo di soluzioni di intelligenza artificiale, ovvero di algoritmi capaci di analizzare lo stato della capacità e prevedere - con un elevato tasso di affidabilità – i possibili problemi che potrebbero presentarsi. Non a caso Gartner prevede un progressivo successo delle piattaforme definite come AIOps (Algorithmic IT Operations), ovvero sistemi che combinano la raccolta dati e le fasi successive di memorizzazione, analisi e visualizzazione, capaci di dialogare oltre che con i normali strumenti IT con qualunque tipo di applicazione. I 5 benefici del Capacity Planning per il business Ma quali sono i cinque principali benefici per il business derivanti dalla corretta implementazione di un IT capacity planning? Eccoli di seguito Maggiore equilibrio tra costi e capacità: Un adeguato capacity planning delle risorse IT può garantire che le capacità di elaborazione soddisfino i requisiti aziendali a costi giustificabili e siano utilizzate nel modo più efficiente possibile. Evitando quindi errori di sovradimensionamento – ovvero una capacità infrastrutturale eccessiva rispetto al grado e al livello di utilizzo da parte degli utenti – o peggio ancora di sottodimensionamento, che può causare notevoli problemi operativi. Riduzione delle spese e degli acquisti non pianificati: proprio per evitare il rischio del sottodimensionamento la maggior parte dei reparti IT tende a sovrastimare le esigenze delle proprie aziende, comportando così una spesa eccessiva, che magari potrebbe essere destinata ad altre attività. Nel caso contrario, invece, l’assenza di una capacità adeguata [...]

BRT Corriere Espresso migliora le prestazioni del suo storage grazie alla soluzione “Uno Smart Booster” e alla tecnologia IBM

Grazie alla esclusiva metodologia di Capacity Planning “Uno Smart Booster” di Uno Informatica e alla tecnologia IBM per lo storage, il system integrator toscano ha ridefinito l’intera infrastruttura di storage di BRT Corriere Espresso raggiungendo gli obiettivi di efficienza richiesti dal cliente. “BRT Corriere Espresso è una delle realtà italiane più importanti che con oltre 180 filiali fornisce servizi logistici di supporto alla movimentazione e alla distribuzione delle merci in Italia in Europa e nel mondo – afferma Matteo Grazi, IT Application Services Manager di BRT Spa. La complessità delle nostre operazioni richiede un sistema informatico evoluto che deve essere continuamente allineato alle moderne tecnologie”. Grazie all’intervento di Uno Informatica e alle soluzioni IBM per lo storage, BRT Corriere Espresso ha a disposizione la piattaforma più affidabile per la gestione delle operazioni tipiche del comparto. Ma come si è arrivati alla definizione del progetto? “Abbiamo inizialmente svolto un’analisi completa della infrastruttura IT di BRT Corriere Espresso – afferma Francesco Camorri, vicepresidente Uno Informatica – utilizzando la nostra soluzione di Capacity Planning per individuare le aree critiche dell’infrastruttura e fornire gli ambiti di miglioramento”. In questo modo, la virtualizzazione dello storage già esistente è stata consolidata tutelando il TCO e ne è stata aumentata l’affidabilità grazie al software IBM Spectrum Virtualize. Inoltre, è stato reso più efficiente lo spazio di storage con la possibilità di andare in Over-Provisioning. Ciò significa assegnare un’ulteriore percentuale della capacità totale di storage per tutelare la scalabilità delle esigenze aziendali. Il progetto ha previsto l’introduzione di nuovi apparati IBM Flash System gestiti dagli IBM Spectrum Virtualize e IBM SAN Volume Controller, le soluzioni IBM specifiche per l’analisi e le proiezioni infrastrutturali per le aziende di fascia enterprise. I risultati non si sono fatti attendere: “è stata migliorata l’erogazione dei servizi aziendali – spiega Grazi – come la gestione dei dati in termini di volumi al secondo su storage IBM ad alta affidabilità e i processi di scambio dati con i nostri clienti, permettendoci di essere ancora più competitivi sul mercato”. Inoltre, sottolinea Camorri: “è stata anche potenziata la sicurezza in tutta l’infrastruttura a ulteriore garanzia per i clienti e per i servizi di BRT Corriere Espresso”. E, inoltre, si è lavorato per definire un piano di Disaster Recovery e garantire l’alta disponibilità dello storage”. Ancora una volta, infine, l’utilizzo degli strumenti statistici contenuti nella metodologia Capacity Planning di Uno Informatica ha permesso al system integrator di fornire quella marcia in più rispetto alla concorrenza, risultando più competitivi sia sul lato funzionale che su quello economico. SCOPRI DI PIÙ

Grazie alla soluzione “UNO HyperSurf” Estra risparmia il 50% del tempo, e tu che fai?

Uno Informatica con la soluzione “UNO HyperSurf” ha aiutato Estra a ridurre del 50% i tempi dell’intero processo di fatturazione dei propri clienti. Un risultato eccezionale per una utility che distribuisce gas naturale ai clienti di quattro regioni (Abruzzo, Lazio, Toscana e Umbria) trasportando la risorsa lungo una direttrice di circa 5500 km e servendo 88 comuni. Estra si è rivolta a Uno Informatica per capire come aggiornare la propria infrastruttura amministrativa al fine di ridurre i tempi di rilascio delle fatture. L’azienda di Prato utilizza l’Erp SAP per tutti i processi di gestione amministrativa. Per preservare il più possibile l’infrastruttura e i processi e impattare in modo minore nelle abitudini delle risorse amministrative, Uno Informatica ha sfruttato la naturale integrazione tra l’Erp SAP e l’infrastruttura IBM Power Systems, piattaforma estremamente flessibile, che garantisce affidabilità, capacità di scalabilità, resilienza e robustezza. Le soluzioni IBM erano già di casa in Estra, per questo non è stato necessario descrivere a Pasquale Guigliotti, responsabile dei sistemi informativi di Estra, le caratteristiche positive delle soluzioni IBM, perché già toccate con mano. Piuttosto, Uno Informatica ha provveduto a fornire il proprio valore aggiunto, in qualità di IBM Platinum Business Partner, analizzando il modello preesistente e personalizzando l’offerta IBM per ottenere la resa migliore con un minimo impatto economico e sulle risorse. L’architettura proposta ad integrazione della soluzione “UNO HyperSurf” implementata, ha compreso l’offerta IBM Power e Storage. In particolare, si è provveduto ad integrare nei tre preesistenti Storwize V7000 due nuovi FlashSystem 900 per garantire maggiori performance e uno Storwize V5000 per incrementare la capacità. Infine, si è inserito uno switch IBM System Networking SAN Fiber Channel e il software IBM Spectrum Virtualize per l’allocazione dinamica delle risorse di storage in modo da incrementare le performance. Inoltre, Uno Informatica ha completato l’integrazione installando un nuovo server IBM Power Systems S870 con sistema operativo Aix, da far lavorare in coppia all’IBM Power Systems preesistente su cui girava l’Erp SAP. Scarica l'infografica SCOPRI DI PIÙ

Gestire i Big Data si può, se hai lo storage giusto

Secondo uno studio recente di Persistence Market Research il mercato dello storage per i Big Data passerebbe in dieci anni dai circa 10 milioni di dollari del 2016 all’incredibile valore di 60 miliardi di dollari nel 2026. Un incremento anno su anno del 20,4% che neanche negli anni ’90, ai tempi d’oro dell’Informatica. Ciò significa una cosa sola, in qualsiasi regione geografica e per qualsiasi tipo di azienda in qualsiasi settore, il focus sulla gestione dei dati, componente fondamentale della Digital Transformation, richiede una revisione degli apparati in cui questi dati sono raccolti e archiviati. Sempre secondo la ricerca, infatti, la componente hardware pesa per quasi la metà (49,1%) del totale del valore del mercato dello storage per i Big Data. La necessità della revisione dell’infrastruttura di storage per le aziende deriva anche dalle richieste della cosiddetta compliance, ovvero le regolamentazioni che nel corso degli ultimi anni hanno posto come obiettivo la tutela della privacy e del dato in generale. Il GDPR europeo ne è il classico esempio. Rivedere lo storage che si ha in casa è fondamentale per tutelarsi dalle richieste delle normative di trattamento dei dati come il GDPR. Un’azienda oggi non può permettersi di pagare per l’incuria con cui gestisce i propri dati e quelli dei loro clienti: deve garantirne la tutela e la sicurezza, anche e soprattutto quando questi dati sono frutto di interscambi digitali tra fornitori, intermediari e clienti nella catena del valore. I dati utili a un’azienda crescono esponenzialmente In questo contesto è ormai ben evidente che non si può prescindere da tecnologie affidabili, sicure e ad accesso veloce come le tecnologie Flash. In quest’ambito è ben nota la leadership di IBM nel settore, ma lo stesso produttore non si culla negli allori e prosegue nello sviluppo della sua roadmap tecnologica, per esempio con i recenti FlashSystem 9100. Parlando di Big Data, inoltre, è fondamentale concentrarsi sull’elaborazione dei dati raccolti. L’archiviazione dai software legacy e la raccolta dei cosiddetti Alternative Data, ormai ritenuti fondamentali tanto quanto gli “ordinari”, richiede, come detto, un certo tipo di hardware. Ma, allo stesso modo, certe tecnologie come quelle dei sistemi Flash, diventano rilevanti anche nella elaborazione dei dati. Quindi, raccolta ed elaborazione. Ma, quando si parla di elaborazione, si tende a pensare alle capacità di calcolo dei sistemi hardware ma non abbastanza alle prestazioni dello storage. In un contesto più ampio, parlando di Intelligenza Artificiale, negli ultimi anni ci sono state delle evidenze che devono far riflettere. L’incremento delle prestazioni in ambito Deep Learning e processori grafici è stato eccezionale. Nello storage non tutti i vendor si sono adeguati alle nuove esigenze. Un sistema di Intelligenza Artificiale ha bisogno di tre asset fondamentali: il deep learning, le GPU (Graphic Processing Unit) e i Big Data. Ebbene, si pensi che in appena due anni gli algoritmi di deep learning hanno migliorato la loro efficacia di un fattore 15. Mentre, le GPU sono cresciute di 10 volte in termini di capacità di elaborazione. Big Data: anche lo storage deve [...]

Requiem per il disco rigido, grazie di tutto ma è ora dell’SSD

Sai qual è stato il primo disco rigido introdotto sul mercato? Era il 13 settembre 1956 e IBM inserì tra le componenti del suo IBM 305 RAMAC il disco fisso a testina magnetica. Il calcolatore, uno degli ultimi a valvole costruiti da IBM, pesava una tonnellata e conteneva fino a 350 dischi fissi di tipo 350 Disk Storage Unit, ognuno dei quali era formato da cinquanta dischi da 24 pollici. Il prezzo? 3.200 dollari di allora, equivalenti a circa 30mila dollari di oggi, al mese. E la capacità di ogni unità era, udite udite, ben 5 megabyte. Sono passati 62 anni ed è ora di pensionare il caro vecchio disco fisso, ovvero la tecnologia a testina magnetica, basilare in ogni dispositivo elettronico, grande o piccolo che sia, in cui era necessario memorizzare qualcosa. In tempi “non sospetti” IBM vendette la divisione storage a Hitachi Data System nel 2003 ma non abbandonò il mercato della memorizzazione di massa. Anzi, guardò avanti alle memorie allo stato solido, le SSD, diventando uno dei leader di mercato. L’anno scorso è stato l’anno del sorpasso in ambito consumer, ovvero i computer portatili con la memoria di tipo SSD hanno superato quelli con il disco fisso. Il sorpasso di SSD su HD arriverà anche nei data center? Ok, il sorpasso è avvenuto nei Personal Computer mentre gli HD continuano a dominare nei server e nelle appliance di storage presenti nei data center, o no? In verità, Gartner predice che entro il 2021 il 50% dei data center useranno memorie compatibili con la tecnologia SSA (Solid State Array), rispetto al 10% attuale. Insomma, la transizione verso i dischi a stato solido è iniziata, anche nei data center. Entro il 2021 la metà dei data center nel mondo userà memorie allo stato solido. Ci sono diversi motivi per cui sarebbe il caso di pensionare i vecchi dischi magnetici. L’affidabilità, i tempi di accesso ai dischi e lo spazio ridotto sono i primi tre e ora anche il costo non è più una discriminante. Infine, lo sostiene un report di Forrester, gli SSD fanno risparmiare soldi. Lo studio ha dimostrato un risparmio di decine di migliaia di dollari all’anno in costi di energia. Sì, ma a noi che ci importa? Tu, azienda cliente, che memorizzi i tuoi dati in un cloud, di che ti preoccupi? L’importante è che i tuoi dati siano al sicuro, poi se sono archiviati su un disco fisso tradizionale o un SSD, che importa? Beh, un pochino ti dovrebbe importare. Intanto, se hai scelto di passare a un cloud ibrido, sarebbe importante che il fornitore dei servizi IaaS ti garantisse un accesso ai dati veloce e sicuro, dunque accertati, attraverso il tuo partner, delle velocità di accesso ai dati. E, se una parte dei tuoi archivi risiede in un cloud privato, o addirittura on premise, ovvero nei server di tua proprietà, dovresti farti due domande. Che tecnologia di storage usano i tuoi server? Quanto sono datati? E qui entra il gioco il valore consulenziale [...]

Il Software Defined Storage per una gestione degli archivi funzionale e proattiva per il business aziendale

Il Software Defined Storage è ormai tecnologia riconosciuta. Sono lontani i tempi in cui la capacità e le funzionalità di allocazione e gestione dello storage erano intimamente correlate all’hardware. Oggi non importa dove risiedano fisicamente gli archivi delle aziende, grazie alle soluzioni di virtualizzazione e a quelle di SDS come la suite IBM Spectrum Storage, lo storage è totalmente indipendente dalla posizione dell’hardware. In questo modo, le soluzioni di gestione permettono di allocare le risorse e muovere lo storage in maniera dinamica, producendo risposte rapide e virtuose sia nel caso di incremento delle richieste che in presenza di politiche di backup e disaster recovery. Il Software Defined Storage permette risposte rapide e virtuose in caso di incremento delle richieste di spazio e di attuazione di politiche di disaster recovery. Per gestire il tuo storage scegli il leader IBM è da tempo riconosciuta come vendor leader in ambito Software Defined Storage, settore in cui si propone attraverso otto componenti distinte della sua Spectrum Storage Suite, tutte pensate per la gestione storage in ambienti hybrid cloud. Si va dalla componente fondamentale di storage virtualization a quelle più specifiche per la data protection, la gestione analitica dei dati o quella pensata per aggregare i dati non strutturati, particolarmente d’attualità vista la sempre più crescente importanza di monitorare dati provenienti da fonti molto eterogenee. I motivi per cui la suite di IBM continua a essere riconosciuta come una delle più valide sul mercato riguardano la flessibilità, l’ampia scelta di funzionalità, il supporto per tutti gli standard di mercato, la facilità di gestione, la velocità e la garanzia di un monitoraggio continuo sul flusso di dati. La tecnologia SDS non dimostra solo interessanti vantaggi nella gestione virtuale dello storage ma permette l’esplorazione di nuovi ambiti applicativi. Uno riguarda certamente l’Intelligenza Artificiale, ovvero l’analisi delle informazioni archiviate con obiettivi di predittività e analisi dati. E, a questo proposito, la componente relativa della suite, IBM Spectrum AI, si è avvalsa recentemente dell’integrazione della piattaforma hardware Nvidia DGX, orientata appositamente all’approccio Deep Learning. Ma c’è un altro versante applicativo che si sta facendo largo grazie ai vantaggi dell’approccio Software Defined Storage. Definita come “data reuse”, che potremmo tradurre in “riciclo dei dati”, è facilmente comprensibile ai più. Con il Data Reuse, i dati più vecchi diventano fondamentali in una strategia di Data Intelligence finalizzata a migliorare le azioni di business. Secondo questo approccio, infatti, i dati archiviati non assumono solo un valore estemporaneo legato a esigenze di disaster recovery, ma diventano strategici, se elaborati in modo corretto, per costruire una solida base per le tecniche di machine e deep learning. Ma utilizzare dataset “vecchi” è possibile solo se la piattaforma di storage è assolutamente indipendente dalla loro localizzazione fisica, dunque esattamente secondo l’approccio SDS, e se si hanno a disposizione capacità computazionale e funzionalità estremamente potenti di virtualizzazione. A che serve il partner IBM? Ancora una volta, dobbiamo puntualizzare che ogni azienda ha le sue esigenze di storage, il proprio budget e i propri obiettivi di crescita. [...]

Ampliare la partnership con un cliente partendo da un progetto di backup e disaster recovery

Questa è la storia di un progetto di Backup e di Disaster Recovery dal lietissimo fine: la massima soddisfazione del cliente. Al punto da consolidare la partnership con ulteriori progetti in divenire. Siamo di fronte a un gruppo leader nel settore del Fashion, eccellenza del Made in Italy nel mondo, con presenza in diversi mercati esteri. Si parla di 20 milioni di capi confezionati e 50 milioni di metri stampati di tessuto all’anno, e di una distribuzione su un migliaio di punti vendita monomarca nel mondo. Sistemi distribuiti e disomogenei Il cliente ha l’esigenza di consolidare la propria infrastruttura IT e raggiungere la massima efficienza nel backup e nel restore dei dati presenti in diversi sistemi distribuiti nella sede centrale, in un data center remoto in outsourcing, in 5 sedi locali e in tre sedi estere. Si tratta di un flusso di circa 15 terabyte di dati su una rete da 100 Mbit, da deduplicare e comprimere. Il tutto in presenza di un hardware variegato e disomogeneo. I dati sono consolidati sui server della sede centrale, in cui si effettua un backup in locale e un’archiviazione mista su disco e su nastro da cui attingere per un eventuale restore. inoltre, è prevista una replica sullo spazio in outsourcing disponibile ad alcune centinaia di chilometri di distanza. Fase uno: dall’analisi all’ottimizzazione del software La prima fase si è aperta con una analisi fondamentale dello status quo delle infrastrutture e del software di gestione del backup e del disaster recovery, del computo del volume dei dati da gestire e dell ricostruzione del percorso degli stessi. Uno Informatica ha utilizzato i suoi strumenti di analisi predittiva, per fornire al cliente una mappatura precisa della situazione allo stato attuale, una previsione dell’incremento delle prestazioni e una simulazione della reazione ad eventuali stati di emergenza. il Proof of Concept non ha previsto alcuna sostituzione delle piattaforme hardware. Prima regola: rispettare il ROI sull’hardware. È possibile se si usa il software di gestione storage giusto. Si è venuto incontro, così, alle esigenze del cliente di rispettare il ROI relativo all’hardware ma, allo stesso tempo, si è garantito un notevole incremento delle prestazioni in termini di velocità e clusterizzazione della mole di dati da archiviare. Con grande soddisfazione del cliente, il software di gestione IBM Tivoli Storage Manager (TSM) che si pensava ormai inadeguato, è stato valorizzato dagli specialisti di Uno Informatica grazie a un attento lavoro di riconfigurazione. L’attività, inoltre, ha portato a un incremento dello storage da gestire con lo stesso TSM e all’acquisto di nuove licenze di una ulteriore piattaforma di gestione integrata dello storage. Fase due: quando si raggiunge, hai conquistato il cliente In circa 4 mesi, la prima fase del progetto di Backup e Disaster Recovery realizzato da Uno Informatica per un’importante realtà del fashion è stata conclusa. Oltre a ottimizzare l’utilizzo di IBM Tivoli Storage Management sono stati implementati nuovi servizi di scripting e di monitoring per agevolare la gestione dello storage e contribuire a velocizzare il go-to-market dell’azienda cliente. Un [...]

La revisione di un piano di Business Continuity a seguito di una fusione aziendale

Le acquisizioni e le fusioni portano sempre in dote grattacapi. C’è da rivedere l’organigramma, riorganizzare le divisioni aziendali, i flussi di lavoro e, soprattutto, uniformare il sistema informativo. Si tratta di attività estremamente delicate e onerose in termini di tempo e risorse. La revisione e l’unificazione della piattaforma informatica, inoltre, è ormai da considerare a monte della riorganizzazione aziendale, dato che assume un valore strategico fondamentale. Spesso ci si trova di fronte a strutture eterogenee, obsolete e incompatibili, per cui il colpo di spugna potrebbe essere la soluzione più veloce ed efficace. Ma non sempre a una fusione corrisponde una disponibilità di budget a disposizione dei responsabili dei sistemi informativi. In caso di fusioni aziendali, il colpo di spugna all’infrastruttura IT non è quasi mai contemplato. Il valore della distribuzione geografica dei data center Uno Informatica ha avuto l’opportunità di intervenire in un importante progetto di unificazione dei sistemi aziendali a seguito dell’incorporazione di tre realtà nell’ambito della Grande Distribuzione Organizzata. In particolare, l’azienda è stata coinvolta in un progetto di Business Continuity in cui si sarebbe dovuto rivedere il flusso di Backup e di Disaster Recovery all’interno di una nuova distribuzione dei data center. La situazione iniziale prevedeva una gestione della Business Continuity certamente non ottimale, addirittura con repliche previste sullo stesso luogo. La replica su hardware posto a poca distanza è una pratica ancora troppo diffusa tra le medie imprese italiane. Spesso per mancanza di un’opportuna analisi a priori e per la necessità di un veloce adeguamento alla compliance, si ricorre alla soluzione più rapida, che è anche la più sconsigliata. È decisamente consigliabile, infatti, che una replica di dati all’interno di un progetto di Disaster Recovery e/o Business Continuity si preveda su due o più data center posti a una certa distanza geografica. Oggi, fortunatamente, grazie alla continua riduzione del costo di archiviazione, alla maggiore disponibilità di data center in outsourcing sul territorio italiano e alla totale affidabilità delle infrastrutture in cloud ibrido, si può garantire una Business Continuity efficace a costi ridotti. Un’attenta analisi di previsione con Capacity Planning Nel caso in esame, Uno Informatica ha subito applicato Capacity Planning, il suo tool proprietario di analisi e previsione, per avere un’idea precisa del carico di dati da gestire tra un data center e l’altro, nel presente e nel futuro. Inoltre, si è deciso di utilizzare IBM Spectrum Control, tool software per il monitoraggio, l’automazione e l’analisi di ambienti di storage di più fornitori. Una volta definita la visione completa, Uno Informatica ha proposto al cliente le priorità di intervento. La base di partenza era una piattaforma di gestione storage non IBM che si sarebbe rivelata non più all’altezza delle nuove esigenze. Esigenze di High Avaliability espressamente richieste dal cliente. Per questo l’intervento di revisione ha dovuto comprendere anche l’hardware e, di comune accordo, si è scelto di riprogettare l’intero ambiente su System & Storage basato su piattaforma IBM Power 8 e relativi applicativi IBM di gestione del backup e del recovery. Le esigenze di High Avaliability [...]

L’importanza di un metodo scientifico nell’analisi dello storage

Nel 1713 il matematico svizzero Nicola Bernoulli pubblica il trattato postumo Ars Conjectandi dello zio Jacob, anche lui noto matematico. Si tratta di un testo storico per la matematica che eleva il Calcolo delle Probabilità a disciplina di grande interesse. La famiglia Bernoulli è stata certamente quella che ha desiderato più di tutti che il Calcolo delle Probabilità diventasse finalmente qualcosa di più di un gioco e che potesse realmente risolvere importanti questioni “professionali”. A distanza di 305 anni, il testo sacro della probabilità, i suoi teoremi e le sue conclusioni rappresentano ancora la base per una metodologia di grande aiuto alle aziende. L’arte di fare delle congetture sui dati oggi è demandata ai software che, grazie alla potenza di calcolo raggiunta dai computer, sono utilizzate nei campi più diversi: dalla finanza (Fintech) all’Agricoltura, dalla Produzione Industriale al mercato Retail passando per la Meteorologia. In tutti l’obiettivo rimane sempre lo stesso: prevedere e pianificare comportamenti futuri dall’analisi dei comportamenti passati. Uno Informatica ha esteso l’utilizzo di tali metodologie all’ambito IT così da prevedere in tempi brevissimi le modifiche richieste a un’architettura IT per continuare a essere all’altezza delle necessità di un’azienda. Le aziende utilizzano ambienti storage (IBM e non) e server (IBM Power Systems e x86) estremamente dinamici e mutevoli. Se non si percepisce in tempo la necessità di un assessment, si rischia di dover intervenire in emergenza e in extra-budget. Siamo di fronte ad ambienti tecnologici vitali per un’azienda, che anche in tempi di elevata complessità devono continuare a erogare i servizi a cui sono predisposti. Si tratta di architetture in continua evoluzione, da ridimensionare o da espandere velocemente per soddisfare nuove esigenze di business, come l’apertura di una nuova filiale o di un nuovo polo produttivo. L’arte di apprendere dai dati: il Capacity Planning Di fronte a uno scenario così dinamico diventa fondamentale l’innovativo approccio tipico del Calcolo delle Probabilità che, in base all’esperienza è in grado di fare previsioni per il futuro. È esattamente l’arte di apprendere dai dati che ha cercato di trasmetterci Bernoulli. Grazie a un approccio dati-modello-dati assolutamente scientifico, Uno Informatica è in grado di fornire valutazioni molto precise e dimostrabili sullo stato e sulla relazione presente/futuro dell’infrastruttura storage e server dell’azienda cliente. Il modello scientifico di Capacity Planning basato su tool come Spectrum Control di IBM, prevede l’analisi della piattaforma storage e server preesistente, l’acquisizione di informazioni che riguardano lo spazio occupato a regime, il flusso dei dati, la velocità di elaborazione e di trasferimento ecc. tutto in maniera indipendente dalla specifica architettura. Ogni cliente, però ha esigenze diverse. È dunque fondamentale integrare il modello standard con un’analisi personalizzata della situazione. Ed è qui che il valore aggiunto di un partner esperto in storage come Uno Informatica fa la differenza. Un partner visionario che per primo e ancora unico ha portato questo approccio statistico all’interno delle metodologie tradizionale di Capacity Planning. Sarebbe facile proporsi come opportunistici salvatori della patria e fare tabula rasa del preesistente. Uno Informatica preferisce fornire una visione il [...]

IBM FlashSystem e soluzioni SSD: fondamentale comprendere le differenze

In un mercato fortemente competitivo e in cui la domanda è costantemente in aumento, è estremamente complicato dimostrare a clienti e prospect i vantaggi di una certa soluzione. Con il rilascio della nuova offerta IBM FlashSystem, l’azienda americana ha sicuramente dato uno scossone al comparto dello storage e una spallata ai diretti concorrenti. Le peculiarità dei nuovi IBM FlashSystem sono state ampiamente illustrate a clienti e partner in diverse occasioni. In particolare, si è evidenziata la maggiore densità dei sistemi che permette di memorizzare più dati con lo stesso ingombro, la capacità di migrare più semplicemente i dati in caso di disaster recovery ma, soprattutto, le prestazioni decisamente migliorate. La tecnologia IBM FlashCore, inoltre, secondo i benchmark IBM garantisce prestazioni fino a 30 volte superiori rispetto alle soluzioni equivalenti della generazione precedente, a un prezzo più conveniente. Inoltre, è in grado di elaborare i dati aziendali in tempo reale senza impattare sull’infrastruttura e garantendo una velocità di elaborazione fino a 10 volte superiore rispetto a soluzioni equivalenti. Lo storage IBM fa sistema Ma, anche senza andare a sviscerare le caratteristiche del cuore delle soluzioni IBM FlashSystem, è facile individuare un primo elemento di distinzione che dovrebbe far preferire IBM alla concorrenza. Per questo basta porsi una domanda: siamo sicuri che la tecnologia IBM FlashSystem e le tecnologie All Flash basate su SSD – memorie a stato solido - degli altri produttori siano paragonabili ed efficienti allo stesso modo? IBM FlashSystem è pronto per le esigenze odierne Effettivamente no, come spiega un white paper dall’eloquente titolo “Flash or SSD: Why and When to Use IBM FlashSystem”. Riassumendo le conclusioni del paper si può affermare che IBM FlashSystem si dimostra più efficiente per le nuove necessità aziendali: le transazioni online, la Business Intelligence, i processi analitici, il disaster recovery dinamico. Sintetizzando ulteriormente, è proprio il termine System, sistema, che fa la differenza. La piattaforma hardware degli IBM FlashSystem risulta più omogenea rispetto alle altre, garantendo al dato una strada sicura e senza soluzione di continuità all’interno dell’hardware, mentre le soluzioni concorrenti non garantiscono la stessa “serenità”. In definitiva, attenzione! Per le esigenze di un’azienda moderna non è sufficiente scegliere un fornitore che dichiari che una soluzione storage enterprise è basata su tecnologie flash. È fondamentale essere consapevoli che tra una soluzione IBM FlashSystem e un’altra qualsiasi basata su SSD c’è una differenza abissale, che si manifesta nelle prestazioni e nella capacità delle soluzioni IBM di “fare sistema” tra le diverse componenti hardware impiegate in una soluzione di storage. Scarica il white paper CONTATTACI PER UNA CONSULENZA PERSONALIZZATA

Torna in cima