Gestire i Big Data si può, se hai lo storage giusto

Secondo uno studio recente di Persistence Market Research il mercato dello storage per i Big Data passerebbe in dieci anni dai circa 10 milioni di dollari del 2016 all’incredibile valore di 60 miliardi di dollari nel 2026. Un incremento anno su anno del 20,4% che neanche negli anni ’90, ai tempi d’oro dell’Informatica. Ciò significa una cosa sola, in qualsiasi regione geografica e per qualsiasi tipo di azienda in qualsiasi settore, il focus sulla gestione dei dati, componente fondamentale della Digital Transformation, richiede una revisione degli apparati in cui questi dati sono raccolti e archiviati. Sempre secondo la ricerca, infatti, la componente hardware pesa per quasi la metà (49,1%) del totale del valore del mercato dello storage per i Big Data. La necessità della revisione dell’infrastruttura di storage per le aziende deriva anche dalle richieste della cosiddetta compliance, ovvero le regolamentazioni che nel corso degli ultimi anni hanno posto come obiettivo la tutela della privacy e del dato in generale. Il GDPR europeo ne è il classico esempio. Rivedere lo storage che si ha in casa è fondamentale per tutelarsi dalle richieste delle normative di trattamento dei dati come il GDPR. Un’azienda oggi non può permettersi di pagare per l’incuria con cui gestisce i propri dati e quelli dei loro clienti: deve garantirne la tutela e la sicurezza, anche e soprattutto quando questi dati sono frutto di interscambi digitali tra fornitori, intermediari e clienti nella catena del valore. I dati utili a un’azienda crescono esponenzialmente In questo contesto è ormai ben evidente che non si può prescindere da tecnologie affidabili, sicure e ad accesso veloce come le tecnologie Flash. In quest’ambito è ben nota la leadership di IBM nel settore, ma lo stesso produttore non si culla negli allori e prosegue nello sviluppo della sua roadmap tecnologica, per esempio con i recenti FlashSystem 9100. Parlando di Big Data, inoltre, è fondamentale concentrarsi sull’elaborazione dei dati raccolti. L’archiviazione dai software legacy e la raccolta dei cosiddetti Alternative Data, ormai ritenuti fondamentali tanto quanto gli “ordinari”, richiede, come detto, un certo tipo di hardware. Ma, allo stesso modo, certe tecnologie come quelle dei sistemi Flash, diventano rilevanti anche nella elaborazione dei dati. Quindi, raccolta ed elaborazione. Ma, quando si parla di elaborazione, si tende a pensare alle capacità di calcolo dei sistemi hardware ma non abbastanza alle prestazioni dello storage. In un contesto più ampio, parlando di Intelligenza Artificiale, negli ultimi anni ci sono state delle evidenze che devono far riflettere. L’incremento delle prestazioni in ambito Deep Learning e processori grafici è stato eccezionale. Nello storage non tutti i vendor si sono adeguati alle nuove esigenze. Un sistema di Intelligenza Artificiale ha bisogno di tre asset fondamentali: il deep learning, le GPU (Graphic Processing Unit) e i Big Data. Ebbene, si pensi che in appena due anni gli algoritmi di deep learning hanno migliorato la loro efficacia di un fattore 15. Mentre, le GPU sono cresciute di 10 volte in termini di capacità di elaborazione. Big Data: anche lo storage deve [...]

Requiem per il disco rigido, grazie di tutto ma è ora dell’SSD

Sai qual è stato il primo disco rigido introdotto sul mercato? Era il 13 settembre 1956 e IBM inserì tra le componenti del suo IBM 305 RAMAC il disco fisso a testina magnetica. Il calcolatore, uno degli ultimi a valvole costruiti da IBM, pesava una tonnellata e conteneva fino a 350 dischi fissi di tipo 350 Disk Storage Unit, ognuno dei quali era formato da cinquanta dischi da 24 pollici. Il prezzo? 3.200 dollari di allora, equivalenti a circa 30mila dollari di oggi, al mese. E la capacità di ogni unità era, udite udite, ben 5 megabyte. Sono passati 62 anni ed è ora di pensionare il caro vecchio disco fisso, ovvero la tecnologia a testina magnetica, basilare in ogni dispositivo elettronico, grande o piccolo che sia, in cui era necessario memorizzare qualcosa. In tempi “non sospetti” IBM vendette la divisione storage a Hitachi Data System nel 2003 ma non abbandonò il mercato della memorizzazione di massa. Anzi, guardò avanti alle memorie allo stato solido, le SSD, diventando uno dei leader di mercato. L’anno scorso è stato l’anno del sorpasso in ambito consumer, ovvero i computer portatili con la memoria di tipo SSD hanno superato quelli con il disco fisso. Il sorpasso di SSD su HD arriverà anche nei data center? Ok, il sorpasso è avvenuto nei Personal Computer mentre gli HD continuano a dominare nei server e nelle appliance di storage presenti nei data center, o no? In verità, Gartner predice che entro il 2021 il 50% dei data center useranno memorie compatibili con la tecnologia SSA (Solid State Array), rispetto al 10% attuale. Insomma, la transizione verso i dischi a stato solido è iniziata, anche nei data center. Entro il 2021 la metà dei data center nel mondo userà memorie allo stato solido. Ci sono diversi motivi per cui sarebbe il caso di pensionare i vecchi dischi magnetici. L’affidabilità, i tempi di accesso ai dischi e lo spazio ridotto sono i primi tre e ora anche il costo non è più una discriminante. Infine, lo sostiene un report di Forrester, gli SSD fanno risparmiare soldi. Lo studio ha dimostrato un risparmio di decine di migliaia di dollari all’anno in costi di energia. Sì, ma a noi che ci importa? Tu, azienda cliente, che memorizzi i tuoi dati in un cloud, di che ti preoccupi? L’importante è che i tuoi dati siano al sicuro, poi se sono archiviati su un disco fisso tradizionale o un SSD, che importa? Beh, un pochino ti dovrebbe importare. Intanto, se hai scelto di passare a un cloud ibrido, sarebbe importante che il fornitore dei servizi IaaS ti garantisse un accesso ai dati veloce e sicuro, dunque accertati, attraverso il tuo partner, delle velocità di accesso ai dati. E, se una parte dei tuoi archivi risiede in un cloud privato, o addirittura on premise, ovvero nei server di tua proprietà, dovresti farti due domande. Che tecnologia di storage usano i tuoi server? Quanto sono datati? E qui entra il gioco il valore consulenziale [...]

Il Software Defined Storage per una gestione degli archivi funzionale e proattiva per il business aziendale

Il Software Defined Storage è ormai tecnologia riconosciuta. Sono lontani i tempi in cui la capacità e le funzionalità di allocazione e gestione dello storage erano intimamente correlate all’hardware. Oggi non importa dove risiedano fisicamente gli archivi delle aziende, grazie alle soluzioni di virtualizzazione e a quelle di SDS come la suite IBM Spectrum Storage, lo storage è totalmente indipendente dalla posizione dell’hardware. In questo modo, le soluzioni di gestione permettono di allocare le risorse e muovere lo storage in maniera dinamica, producendo risposte rapide e virtuose sia nel caso di incremento delle richieste che in presenza di politiche di backup e disaster recovery. Il Software Defined Storage permette risposte rapide e virtuose in caso di incremento delle richieste di spazio e di attuazione di politiche di disaster recovery. Per gestire il tuo storage scegli il leader IBM è da tempo riconosciuta come vendor leader in ambito Software Defined Storage, settore in cui si propone attraverso otto componenti distinte della sua Spectrum Storage Suite, tutte pensate per la gestione storage in ambienti hybrid cloud. Si va dalla componente fondamentale di storage virtualization a quelle più specifiche per la data protection, la gestione analitica dei dati o quella pensata per aggregare i dati non strutturati, particolarmente d’attualità vista la sempre più crescente importanza di monitorare dati provenienti da fonti molto eterogenee. I motivi per cui la suite di IBM continua a essere riconosciuta come una delle più valide sul mercato riguardano la flessibilità, l’ampia scelta di funzionalità, il supporto per tutti gli standard di mercato, la facilità di gestione, la velocità e la garanzia di un monitoraggio continuo sul flusso di dati. La tecnologia SDS non dimostra solo interessanti vantaggi nella gestione virtuale dello storage ma permette l’esplorazione di nuovi ambiti applicativi. Uno riguarda certamente l’Intelligenza Artificiale, ovvero l’analisi delle informazioni archiviate con obiettivi di predittività e analisi dati. E, a questo proposito, la componente relativa della suite, IBM Spectrum AI, si è avvalsa recentemente dell’integrazione della piattaforma hardware Nvidia DGX, orientata appositamente all’approccio Deep Learning. Ma c’è un altro versante applicativo che si sta facendo largo grazie ai vantaggi dell’approccio Software Defined Storage. Definita come “data reuse”, che potremmo tradurre in “riciclo dei dati”, è facilmente comprensibile ai più. Con il Data Reuse, i dati più vecchi diventano fondamentali in una strategia di Data Intelligence finalizzata a migliorare le azioni di business. Secondo questo approccio, infatti, i dati archiviati non assumono solo un valore estemporaneo legato a esigenze di disaster recovery, ma diventano strategici, se elaborati in modo corretto, per costruire una solida base per le tecniche di machine e deep learning. Ma utilizzare dataset “vecchi” è possibile solo se la piattaforma di storage è assolutamente indipendente dalla loro localizzazione fisica, dunque esattamente secondo l’approccio SDS, e se si hanno a disposizione capacità computazionale e funzionalità estremamente potenti di virtualizzazione. A che serve il partner IBM? Ancora una volta, dobbiamo puntualizzare che ogni azienda ha le sue esigenze di storage, il proprio budget e i propri obiettivi di crescita. [...]

Ampliare la partnership con un cliente partendo da un progetto di backup e disaster recovery

Questa è la storia di un progetto di Backup e di Disaster Recovery dal lietissimo fine: la massima soddisfazione del cliente. Al punto da consolidare la partnership con ulteriori progetti in divenire. Siamo di fronte a un gruppo leader nel settore del Fashion, eccellenza del Made in Italy nel mondo, con presenza in diversi mercati esteri. Si parla di 20 milioni di capi confezionati e 50 milioni di metri stampati di tessuto all’anno, e di una distribuzione su un migliaio di punti vendita monomarca nel mondo. Sistemi distribuiti e disomogenei Il cliente ha l’esigenza di consolidare la propria infrastruttura IT e raggiungere la massima efficienza nel backup e nel restore dei dati presenti in diversi sistemi distribuiti nella sede centrale, in un data center remoto in outsourcing, in 5 sedi locali e in tre sedi estere. Si tratta di un flusso di circa 15 terabyte di dati su una rete da 100 Mbit, da deduplicare e comprimere. Il tutto in presenza di un hardware variegato e disomogeneo. I dati sono consolidati sui server della sede centrale, in cui si effettua un backup in locale e un’archiviazione mista su disco e su nastro da cui attingere per un eventuale restore. inoltre, è prevista una replica sullo spazio in outsourcing disponibile ad alcune centinaia di chilometri di distanza. Fase uno: dall’analisi all’ottimizzazione del software La prima fase si è aperta con una analisi fondamentale dello status quo delle infrastrutture e del software di gestione del backup e del disaster recovery, del computo del volume dei dati da gestire e dell ricostruzione del percorso degli stessi. Uno Informatica ha utilizzato i suoi strumenti di analisi predittiva, per fornire al cliente una mappatura precisa della situazione allo stato attuale, una previsione dell’incremento delle prestazioni e una simulazione della reazione ad eventuali stati di emergenza. il Proof of Concept non ha previsto alcuna sostituzione delle piattaforme hardware. Prima regola: rispettare il ROI sull’hardware. È possibile se si usa il software di gestione storage giusto. Si è venuto incontro, così, alle esigenze del cliente di rispettare il ROI relativo all’hardware ma, allo stesso tempo, si è garantito un notevole incremento delle prestazioni in termini di velocità e clusterizzazione della mole di dati da archiviare. Con grande soddisfazione del cliente, il software di gestione IBM Tivoli Storage Manager (TSM) che si pensava ormai inadeguato, è stato valorizzato dagli specialisti di Uno Informatica grazie a un attento lavoro di riconfigurazione. L’attività, inoltre, ha portato a un incremento dello storage da gestire con lo stesso TSM e all’acquisto di nuove licenze di una ulteriore piattaforma di gestione integrata dello storage. Fase due: quando si raggiunge, hai conquistato il cliente In circa 4 mesi, la prima fase del progetto di Backup e Disaster Recovery realizzato da Uno Informatica per un’importante realtà del fashion è stata conclusa. Oltre a ottimizzare l’utilizzo di IBM Tivoli Storage Management sono stati implementati nuovi servizi di scripting e di monitoring per agevolare la gestione dello storage e contribuire a velocizzare il go-to-market dell’azienda cliente. Un [...]

La revisione di un piano di Business Continuity a seguito di una fusione aziendale

Le acquisizioni e le fusioni portano sempre in dote grattacapi. C’è da rivedere l’organigramma, riorganizzare le divisioni aziendali, i flussi di lavoro e, soprattutto, uniformare il sistema informativo. Si tratta di attività estremamente delicate e onerose in termini di tempo e risorse. La revisione e l’unificazione della piattaforma informatica, inoltre, è ormai da considerare a monte della riorganizzazione aziendale, dato che assume un valore strategico fondamentale. Spesso ci si trova di fronte a strutture eterogenee, obsolete e incompatibili, per cui il colpo di spugna potrebbe essere la soluzione più veloce ed efficace. Ma non sempre a una fusione corrisponde una disponibilità di budget a disposizione dei responsabili dei sistemi informativi. In caso di fusioni aziendali, il colpo di spugna all’infrastruttura IT non è quasi mai contemplato. Il valore della distribuzione geografica dei data center Uno Informatica ha avuto l’opportunità di intervenire in un importante progetto di unificazione dei sistemi aziendali a seguito dell’incorporazione di tre realtà nell’ambito della Grande Distribuzione Organizzata. In particolare, l’azienda è stata coinvolta in un progetto di Business Continuity in cui si sarebbe dovuto rivedere il flusso di Backup e di Disaster Recovery all’interno di una nuova distribuzione dei data center. La situazione iniziale prevedeva una gestione della Business Continuity certamente non ottimale, addirittura con repliche previste sullo stesso luogo. La replica su hardware posto a poca distanza è una pratica ancora troppo diffusa tra le medie imprese italiane. Spesso per mancanza di un’opportuna analisi a priori e per la necessità di un veloce adeguamento alla compliance, si ricorre alla soluzione più rapida, che è anche la più sconsigliata. È decisamente consigliabile, infatti, che una replica di dati all’interno di un progetto di Disaster Recovery e/o Business Continuity si preveda su due o più data center posti a una certa distanza geografica. Oggi, fortunatamente, grazie alla continua riduzione del costo di archiviazione, alla maggiore disponibilità di data center in outsourcing sul territorio italiano e alla totale affidabilità delle infrastrutture in cloud ibrido, si può garantire una Business Continuity efficace a costi ridotti. Un’attenta analisi di previsione con Capacity Planning Nel caso in esame, Uno Informatica ha subito applicato Capacity Planning, il suo tool proprietario di analisi e previsione, per avere un’idea precisa del carico di dati da gestire tra un data center e l’altro, nel presente e nel futuro. Inoltre, si è deciso di utilizzare IBM Spectrum Control, tool software per il monitoraggio, l’automazione e l’analisi di ambienti di storage di più fornitori. Una volta definita la visione completa, Uno Informatica ha proposto al cliente le priorità di intervento. La base di partenza era una piattaforma di gestione storage non IBM che si sarebbe rivelata non più all’altezza delle nuove esigenze. Esigenze di High Avaliability espressamente richieste dal cliente. Per questo l’intervento di revisione ha dovuto comprendere anche l’hardware e, di comune accordo, si è scelto di riprogettare l’intero ambiente su System & Storage basato su piattaforma IBM Power 8 e relativi applicativi IBM di gestione del backup e del recovery. Le esigenze di High Avaliability [...]

L’importanza di un metodo scientifico nell’analisi dello storage

Nel 1713 il matematico svizzero Nicola Bernoulli pubblica il trattato postumo Ars Conjectandi dello zio Jacob, anche lui noto matematico. Si tratta di un testo storico per la matematica che eleva il Calcolo delle Probabilità a disciplina di grande interesse. La famiglia Bernoulli è stata certamente quella che ha desiderato più di tutti che il Calcolo delle Probabilità diventasse finalmente qualcosa di più di un gioco e che potesse realmente risolvere importanti questioni “professionali”. A distanza di 305 anni, il testo sacro della probabilità, i suoi teoremi e le sue conclusioni rappresentano ancora la base per una metodologia di grande aiuto alle aziende. L’arte di fare delle congetture sui dati oggi è demandata ai software che, grazie alla potenza di calcolo raggiunta dai computer, sono utilizzate nei campi più diversi: dalla finanza (Fintech) all’Agricoltura, dalla Produzione Industriale al mercato Retail passando per la Meteorologia. In tutti l’obiettivo rimane sempre lo stesso: prevedere e pianificare comportamenti futuri dall’analisi dei comportamenti passati. Uno Informatica ha esteso l’utilizzo di tali metodologie all’ambito IT così da prevedere in tempi brevissimi le modifiche richieste a un’architettura IT per continuare a essere all’altezza delle necessità di un’azienda. Le aziende utilizzano ambienti storage (IBM e non) e server (IBM Power Systems e x86) estremamente dinamici e mutevoli. Se non si percepisce in tempo la necessità di un assessment, si rischia di dover intervenire in emergenza e in extra-budget. Siamo di fronte ad ambienti tecnologici vitali per un’azienda, che anche in tempi di elevata complessità devono continuare a erogare i servizi a cui sono predisposti. Si tratta di architetture in continua evoluzione, da ridimensionare o da espandere velocemente per soddisfare nuove esigenze di business, come l’apertura di una nuova filiale o di un nuovo polo produttivo. L’arte di apprendere dai dati: il Capacity Planning Di fronte a uno scenario così dinamico diventa fondamentale l’innovativo approccio tipico del Calcolo delle Probabilità che, in base all’esperienza è in grado di fare previsioni per il futuro. È esattamente l’arte di apprendere dai dati che ha cercato di trasmetterci Bernoulli. Grazie a un approccio dati-modello-dati assolutamente scientifico, Uno Informatica è in grado di fornire valutazioni molto precise e dimostrabili sullo stato e sulla relazione presente/futuro dell’infrastruttura storage e server dell’azienda cliente. Il modello scientifico di Capacity Planning basato su tool come Spectrum Control di IBM, prevede l’analisi della piattaforma storage e server preesistente, l’acquisizione di informazioni che riguardano lo spazio occupato a regime, il flusso dei dati, la velocità di elaborazione e di trasferimento ecc. tutto in maniera indipendente dalla specifica architettura. Ogni cliente, però ha esigenze diverse. È dunque fondamentale integrare il modello standard con un’analisi personalizzata della situazione. Ed è qui che il valore aggiunto di un partner esperto in storage come Uno Informatica fa la differenza. Un partner visionario che per primo e ancora unico ha portato questo approccio statistico all’interno delle metodologie tradizionale di Capacity Planning. Sarebbe facile proporsi come opportunistici salvatori della patria e fare tabula rasa del preesistente. Uno Informatica preferisce fornire una visione il [...]

IBM FlashSystem e soluzioni SSD: fondamentale comprendere le differenze

In un mercato fortemente competitivo e in cui la domanda è costantemente in aumento, è estremamente complicato dimostrare a clienti e prospect i vantaggi di una certa soluzione. Con il rilascio della nuova offerta IBM FlashSystem, l’azienda americana ha sicuramente dato uno scossone al comparto dello storage e una spallata ai diretti concorrenti. Le peculiarità dei nuovi IBM FlashSystem sono state ampiamente illustrate a clienti e partner in diverse occasioni. In particolare, si è evidenziata la maggiore densità dei sistemi che permette di memorizzare più dati con lo stesso ingombro, la capacità di migrare più semplicemente i dati in caso di disaster recovery ma, soprattutto, le prestazioni decisamente migliorate. La tecnologia IBM FlashCore, inoltre, secondo i benchmark IBM garantisce prestazioni fino a 30 volte superiori rispetto alle soluzioni equivalenti della generazione precedente, a un prezzo più conveniente. Inoltre, è in grado di elaborare i dati aziendali in tempo reale senza impattare sull’infrastruttura e garantendo una velocità di elaborazione fino a 10 volte superiore rispetto a soluzioni equivalenti. Lo storage IBM fa sistema Ma, anche senza andare a sviscerare le caratteristiche del cuore delle soluzioni IBM FlashSystem, è facile individuare un primo elemento di distinzione che dovrebbe far preferire IBM alla concorrenza. Per questo basta porsi una domanda: siamo sicuri che la tecnologia IBM FlashSystem e le tecnologie All Flash basate su SSD – memorie a stato solido - degli altri produttori siano paragonabili ed efficienti allo stesso modo? IBM FlashSystem è pronto per le esigenze odierne Effettivamente no, come spiega un white paper dall’eloquente titolo “Flash or SSD: Why and When to Use IBM FlashSystem”. Riassumendo le conclusioni del paper si può affermare che IBM FlashSystem si dimostra più efficiente per le nuove necessità aziendali: le transazioni online, la Business Intelligence, i processi analitici, il disaster recovery dinamico. Sintetizzando ulteriormente, è proprio il termine System, sistema, che fa la differenza. La piattaforma hardware degli IBM FlashSystem risulta più omogenea rispetto alle altre, garantendo al dato una strada sicura e senza soluzione di continuità all’interno dell’hardware, mentre le soluzioni concorrenti non garantiscono la stessa “serenità”. In definitiva, attenzione! Per le esigenze di un’azienda moderna non è sufficiente scegliere un fornitore che dichiari che una soluzione storage enterprise è basata su tecnologie flash. È fondamentale essere consapevoli che tra una soluzione IBM FlashSystem e un’altra qualsiasi basata su SSD c’è una differenza abissale, che si manifesta nelle prestazioni e nella capacità delle soluzioni IBM di “fare sistema” tra le diverse componenti hardware impiegate in una soluzione di storage. Scarica il white paper CONTATTACI PER UNA CONSULENZA PERSONALIZZATA

Software Defined Storage: scegli un partner competente

Secondo Gartner, entro il 2019 il 70% delle soluzioni storage disponibili sarà in versione “software only”. Cosa vuol dire? Che anziché aspettarci rivoluzioni nell’offerta hardware, che proseguirà certamente lungo il “paradigma flash” su cui IBM ha scelto di puntare, dovremmo immaginare altre direzioni. Il focus dell’innovazione in questo ambito sarà un altro e riguarderà una componente IT che non morirà mai: il software. Saranno le soluzioni software a dettare la linea, saranno le novità degli applicativi di gestione dell’hardware che le aziende clienti dovranno tenere d’occhio. D’altronde, se Idc prevede un costo complessivo per la copia dei dati di circa 50 miliardi di dollari nel 2018, è evidente che l’equazione +dati=+spazio non è più sostenibile. Sono noti a tutti i trend di crescita esponenziale degli archivi digitali di una singola azienda, per immaginarlo basta fare un piccolo esperimento: contiamo quante foto abbiamo archiviato sullo smartphone in una settimana. Di fronte a una crescita senza controllo dei dati da archiviare, spesso per esigenze normative, la risposta non può essere più spazio o più hardware. La risposta si chiama Software Defined Storage, un mercato con un tasso di crescita previsto del 35,20% dal 2015 al 2019. Definizioni tante, vantaggio uno (ma buono) C’è stato un momento in cui il termine Software Defined Storage rischiava di non essere niente di più di un concetto di marketing, vista la difficoltà di darne una definizione semplice ma precisa. Nel corso degli ultimi anni, però, i casi di successo intorno all’SDS hanno dimostrato che dietro a un concetto difficile c’è tanta concretezza. Molto semplicisticamente, il Software Defined Storage è la gestione dello storage via software in totale indipendenza dall’hardware. In questo modo, fornitori e clienti non dovrebbero più preoccuparsi (tanto) dell’obsolescenza dell’hardware. Eviterebbero così la continua rincorsa a nuove componenti, che equivarrebbe alla spesa di un sacco di soldi nell’adeguamento delle strutture per stare dietro al moltiplicarsi del dato. Senza entrare troppo nei dettagli della singola offerta IBM, di cui si trova tutto qui, c’è un aspetto che riguarda direttamente il rapporto cliente-partner. Se, infatti, nella gestione dello storage diventa determinante la piattaforma, con lei lo diventa anche un’altra voce, i servizi. Già, perché il software deve essere customizzato a seconda delle esigenze del cliente, certamente in fase di installazione della soluzione, ancora di più in fase di maintenance e di adeguamento in corso d’opera ai cambiamenti dello storage. Se il Software Defined Storage dipende fortemente dal software e dai servizi correlati, diventa necessario per l’azienda cliente affidarsi a un partner competente, con le certificazioni e con le referenze giuste in quest’ambito. Perché la gestione del dato non può essere affidata a un partner improvvisato. CONTATTACI PER UNA CONSULENZA PERSONALIZZATA

Lo storage IBM cresce, nel 2018 ancora di più

Dopo 22 trimestri di sofferenza, le vendite di IBM sono tornate a crescere. Il quarto trimestre del 2017 ha fatto segnare un +3,5% globale nelle vendite rispetto allo stesso periodo del 2016 (da 21,77 miliardi a 22,54 miliardi di dollari per trimestre). Una boccata d’ossigeno per tutte le divisioni di Big Blue che ha sorpreso in positivo gli analisti e che non ha inciso sugli utili, e sui dividendi, per una questione di esborso di tasse legata al rimpatrio dei profitti accumulati fuori dagli Stati Uniti. I risultati, resi pubblici in quanto azienda quotata, hanno determinato una serie di riflessioni da parte di giornalisti e analisti che sono andati a sviscerare ogni tipo di dato relativo a unità di business e soluzioni. Parlando di storage, sebbene sia ancora presto per tirare le somme rispetto alla ventata di novità presentata recentemente, i dati indicano una crescita anno su anno dell’8%, più ridotta rispetto alle soluzioni IBM System Z e IBM Power Systems, ma è pur sempre una crescita. In particolare, lo storage IBM cresce per il quarto trimestre consecutivo pur con un indice inferiore alla doppia cifra. Martin Schoreter, prima CFO e ora senior vicepresident per i mercati globali, ha dichiarato: “L’hardware storage è cresciuto dell’8%, ed è la quarta crescita consecutiva del comparto, ovviamente siamo di fronte a un certo slancio. Stiamo guadagnando quote in un mercato molto competitivo, mantenendo stabili i margini”. Inoltre, ha proseguito il manager: “abbiamo registrato una crescita in doppia cifra nella fascia alta dell’offerta, il che dimostra di aver intercettato la domanda di architetture flash, insieme a quella di maggiore capacità” e: “l’offerta all-flash cresce in doppia cifra e più della media del mercato”. Insomma, facendo una summa tra dati oggettivi pubblici e dichiarazioni, il messaggio è: stiamo iniziando a vedere i frutti della nuova strategia. Ma giornalisti e analisti non si accontentano delle dichiarazioni ufficiali e si aspettano mosse concrete nel corso di quest’anno (vedi qui per approfondimenti). Evitando di “spaccare il capello”, ciò che rimane da fare, per IBM e per i suoi Business Partner, è rimboccarsi le maniche e proseguire la rincorsa ai concorrenti come Dell EMC per tutto il 2018, forti di una base comunque solida. Sistemata la componente hardware con un forte investimento nelle tecnologie flash, ora per IBM sarà il momento di lavorare sull’architettura software, in particolare sulle Software-Defined e sull’Object Storage. Come fare, allora, per allinearsi velocemente alla concorrenza? La strada più plausibile, sempre secondo i più esperti, è quella dell’acquisizione. Si prevede, così, che in questi mesi Big Blue studi valore e offerta di alcuni vendor specializzati ai fini di un acquisto. Si tratta solo di rumors, ovviamente, ma neanche tanto ipotetici. Di fronte a questo scenario, cosa cambierà per partner e clienti? Beh, la parolina magica è ancora una volta “software”. La complessità delle architetture cresce, è importante accertarsi che i software che governano i nostri data center siano all’altezza delle nostre esigenze. Per questo è importante farsi supportare da un Business Partner IBM fortemente [...]

I nuovi IBM FlashSystem liberano investimenti per le personalizzazioni dei partner

Le nuove soluzioni FlashSystem presentate recentemente da IBM sono state realizzate per ridurre significativamente i costi della gestione dei dati. Gli stessi dati che, oggi come non mai, contribuiscono decisamente alla generazione del valore per le aziende. Dati relativi ai comportamenti della clientela, per esempio, ma ancora di più i dati fondamentali per la gestione della fatturazione. Nel settore dell'Energia, per esempio, la generazione precedente delle soluzioni IBM storage hanno già permesso a Cpfl Energia - la terza utility brasiliana - la riduzione del 37% dei tempi di fatturazione ai clienti. Di fronte alla gestione della fatturazione di un numero crescente di contratti, infatti, non è sufficiente dotarsi di una architettura storage capiente ma è fondamentale che la stessa garantisca una maggiore velocità di elaborazione. Nel caso particolare di Cpfl ci si è trovati di fronte a un incremento del 25% dei contratti di fornitura. E, se i metodi e i sistemi utilizzati in precedenza richiedevano fino a otto ore di elaborazione continua da parte dell'infrastruttura storage, grazie all'introduzione delle soluzioni IBM FlashSystem è stato possibile ridurre il carico temporale a 5 ore pari, appunto, a una riduzione dei tempi del 37%. I nuovi IBM FlashSystem, oltre a una riduzione dei costi di memorizzazione dei dati di circa il 60%, anche una maggiore efficienza dell'architettura permettendo al cliente di non sacrificare nessuno dei tre parametri fondamentali: riduzione dello spazio riservato ai dati, latenza e prezzo. Grazie al nuovo paradigma 3D TLC NAND, le soluzioni IBM FlashSystem permettono un approccio più rilassato alla gestione dei dati e forniscono un’ulteriore opportunità di generare valore da parte dei sui Business Partner, come Uno Informatica. L'ottimizzazione del costo dello storage, infatti, libera risorse economiche per lo sviluppo di soluzioni specifiche di progettazione, integrazione e personalizzazione per il settore in cui l'azienda opera, garantendo un livello di servizio superiore nei confronti della propria clientela e un valore distintivo nei confronti della concorrenza. Scopri nell’infografica i vantaggi delle nuove soluzioni IBM FlashSystem e contatta un esperto delle soluzioni IBM storage di Uno Informatica. Scarica l'infografica CONTATTACI PER UNA CONSULENZA PERSONALIZZATA

Torna in cima