5 Motivi per cui il capacity planning è essenziale per il tuo business

Sommario: Il capacity planning rende possibile calibrare le risorse IT in funzione del loro livello di utilizzo, garantendo così alle aziende la massima operatività. La fase storica che ci troviamo a vivere è duplice: da una parte, l’effetto della pandemia da Covid-19 è stato quello di una maggiore domanda di digitalizzazione, che inevitabilmente si accompagna a uno sfruttamento più intenso delle risorse IT. D’altra parte, però, le imprese sono nel bel mezzo di una grave crisi economica, che aumenta i livelli di incertezza e mette sotto pressione i modelli di business. Difficile che, in un contesto di questo tipo, i reparti IT aziendali abbiano carta bianca per procedere ad acquisti e investimenti. Piuttosto, la richiesta sarà quella di accompagnare questo necessario passaggio al digitale con un contenimento dei costi IT. A cosa serve il Capacity Planning Come si possono far convergere queste due tendenze in apparenza inconciliabili? Per le imprese diventa fondamentale organizzare un adeguato capacity planning delle proprie risorse infrastrutturali (storage in particolare). Concretamente questo significa gestire le risorse IT a disposizione – sia quelle ospitate nei data center proprietari che quelle in cloud – per far sì che le applicazioni utilizzate dispongano sempre della necessaria capacità per funzionare correttamente, anche in prospettiva futura, così da assicurare la scalabilità. Ma come si può mettere in atto un capacity planning adeguato? Anche per i team IT può risultare complesso comprendere l’effettivo grado di utilizzo delle risorse e, soprattutto, prevederne l’evoluzione futura, che potrebbe essere anche dissimile rispetto alle traiettorie riscontrate nel passato. L’intelligenza artificiale come supporto Sempre più spesso, dunque, il capacity planning sta passando per l’utilizzo di soluzioni di intelligenza artificiale, ovvero di algoritmi capaci di analizzare lo stato della capacità e prevedere - con un elevato tasso di affidabilità – i possibili problemi che potrebbero presentarsi. Non a caso Gartner prevede un progressivo successo delle piattaforme definite come AIOps (Algorithmic IT Operations), ovvero sistemi che combinano la raccolta dati e le fasi successive di memorizzazione, analisi e visualizzazione, capaci di dialogare oltre che con i normali strumenti IT con qualunque tipo di applicazione. I 5 benefici del Capacity Planning per il business Ma quali sono i cinque principali benefici per il business derivanti dalla corretta implementazione di un IT capacity planning? Eccoli di seguito Maggiore equilibrio tra costi e capacità: Un adeguato capacity planning delle risorse IT può garantire che le capacità di elaborazione soddisfino i requisiti aziendali a costi giustificabili e siano utilizzate nel modo più efficiente possibile. Evitando quindi errori di sovradimensionamento – ovvero una capacità infrastrutturale eccessiva rispetto al grado e al livello di utilizzo da parte degli utenti – o peggio ancora di sottodimensionamento, che può causare notevoli problemi operativi. Riduzione delle spese e degli acquisti non pianificati: proprio per evitare il rischio del sottodimensionamento la maggior parte dei reparti IT tende a sovrastimare le esigenze delle proprie aziende, comportando così una spesa eccessiva, che magari potrebbe essere destinata ad altre attività. Nel caso contrario, invece, l’assenza di una capacità adeguata [...]

BRT Corriere Espresso migliora le prestazioni del suo storage grazie alla soluzione “Uno Smart Booster” e alla tecnologia IBM

Grazie alla esclusiva metodologia di Capacity Planning “Uno Smart Booster” di Uno Informatica e alla tecnologia IBM per lo storage, il system integrator toscano ha ridefinito l’intera infrastruttura di storage di BRT Corriere Espresso raggiungendo gli obiettivi di efficienza richiesti dal cliente. “BRT Corriere Espresso è una delle realtà italiane più importanti che con oltre 180 filiali fornisce servizi logistici di supporto alla movimentazione e alla distribuzione delle merci in Italia in Europa e nel mondo – afferma Matteo Grazi, IT Application Services Manager di BRT Spa. La complessità delle nostre operazioni richiede un sistema informatico evoluto che deve essere continuamente allineato alle moderne tecnologie”. Grazie all’intervento di Uno Informatica e alle soluzioni IBM per lo storage, BRT Corriere Espresso ha a disposizione la piattaforma più affidabile per la gestione delle operazioni tipiche del comparto. Ma come si è arrivati alla definizione del progetto? “Abbiamo inizialmente svolto un’analisi completa della infrastruttura IT di BRT Corriere Espresso – afferma Francesco Camorri, vicepresidente Uno Informatica – utilizzando la nostra soluzione di Capacity Planning per individuare le aree critiche dell’infrastruttura e fornire gli ambiti di miglioramento”. In questo modo, la virtualizzazione dello storage già esistente è stata consolidata tutelando il TCO e ne è stata aumentata l’affidabilità grazie al software IBM Spectrum Virtualize. Inoltre, è stato reso più efficiente lo spazio di storage con la possibilità di andare in Over-Provisioning. Ciò significa assegnare un’ulteriore percentuale della capacità totale di storage per tutelare la scalabilità delle esigenze aziendali. Il progetto ha previsto l’introduzione di nuovi apparati IBM Flash System gestiti dagli IBM Spectrum Virtualize e IBM SAN Volume Controller, le soluzioni IBM specifiche per l’analisi e le proiezioni infrastrutturali per le aziende di fascia enterprise. I risultati non si sono fatti attendere: “è stata migliorata l’erogazione dei servizi aziendali – spiega Grazi – come la gestione dei dati in termini di volumi al secondo su storage IBM ad alta affidabilità e i processi di scambio dati con i nostri clienti, permettendoci di essere ancora più competitivi sul mercato”. Inoltre, sottolinea Camorri: “è stata anche potenziata la sicurezza in tutta l’infrastruttura a ulteriore garanzia per i clienti e per i servizi di BRT Corriere Espresso”. E, inoltre, si è lavorato per definire un piano di Disaster Recovery e garantire l’alta disponibilità dello storage”. Ancora una volta, infine, l’utilizzo degli strumenti statistici contenuti nella metodologia Capacity Planning di Uno Informatica ha permesso al system integrator di fornire quella marcia in più rispetto alla concorrenza, risultando più competitivi sia sul lato funzionale che su quello economico. SCOPRI DI PIÙ

Grazie alla soluzione “UNO HyperSurf” Estra risparmia il 50% del tempo, e tu che fai?

Uno Informatica con la soluzione “UNO HyperSurf” ha aiutato Estra a ridurre del 50% i tempi dell’intero processo di fatturazione dei propri clienti. Un risultato eccezionale per una utility che distribuisce gas naturale ai clienti di quattro regioni (Abruzzo, Lazio, Toscana e Umbria) trasportando la risorsa lungo una direttrice di circa 5500 km e servendo 88 comuni. Estra si è rivolta a Uno Informatica per capire come aggiornare la propria infrastruttura amministrativa al fine di ridurre i tempi di rilascio delle fatture. L’azienda di Prato utilizza l’Erp SAP per tutti i processi di gestione amministrativa. Per preservare il più possibile l’infrastruttura e i processi e impattare in modo minore nelle abitudini delle risorse amministrative, Uno Informatica ha sfruttato la naturale integrazione tra l’Erp SAP e l’infrastruttura IBM Power Systems, piattaforma estremamente flessibile, che garantisce affidabilità, capacità di scalabilità, resilienza e robustezza. Le soluzioni IBM erano già di casa in Estra, per questo non è stato necessario descrivere a Pasquale Guigliotti, responsabile dei sistemi informativi di Estra, le caratteristiche positive delle soluzioni IBM, perché già toccate con mano. Piuttosto, Uno Informatica ha provveduto a fornire il proprio valore aggiunto, in qualità di IBM Platinum Business Partner, analizzando il modello preesistente e personalizzando l’offerta IBM per ottenere la resa migliore con un minimo impatto economico e sulle risorse. L’architettura proposta ad integrazione della soluzione “UNO HyperSurf” implementata, ha compreso l’offerta IBM Power e Storage. In particolare, si è provveduto ad integrare nei tre preesistenti Storwize V7000 due nuovi FlashSystem 900 per garantire maggiori performance e uno Storwize V5000 per incrementare la capacità. Infine, si è inserito uno switch IBM System Networking SAN Fiber Channel e il software IBM Spectrum Virtualize per l’allocazione dinamica delle risorse di storage in modo da incrementare le performance. Inoltre, Uno Informatica ha completato l’integrazione installando un nuovo server IBM Power Systems S870 con sistema operativo Aix, da far lavorare in coppia all’IBM Power Systems preesistente su cui girava l’Erp SAP. Scarica l'infografica SCOPRI DI PIÙ

Gestire i Big Data si può, se hai lo storage giusto

Secondo uno studio recente di Persistence Market Research il mercato dello storage per i Big Data passerebbe in dieci anni dai circa 10 milioni di dollari del 2016 all’incredibile valore di 60 miliardi di dollari nel 2026. Un incremento anno su anno del 20,4% che neanche negli anni ’90, ai tempi d’oro dell’Informatica. Ciò significa una cosa sola, in qualsiasi regione geografica e per qualsiasi tipo di azienda in qualsiasi settore, il focus sulla gestione dei dati, componente fondamentale della Digital Transformation, richiede una revisione degli apparati in cui questi dati sono raccolti e archiviati. Sempre secondo la ricerca, infatti, la componente hardware pesa per quasi la metà (49,1%) del totale del valore del mercato dello storage per i Big Data. La necessità della revisione dell’infrastruttura di storage per le aziende deriva anche dalle richieste della cosiddetta compliance, ovvero le regolamentazioni che nel corso degli ultimi anni hanno posto come obiettivo la tutela della privacy e del dato in generale. Il GDPR europeo ne è il classico esempio. Rivedere lo storage che si ha in casa è fondamentale per tutelarsi dalle richieste delle normative di trattamento dei dati come il GDPR. Un’azienda oggi non può permettersi di pagare per l’incuria con cui gestisce i propri dati e quelli dei loro clienti: deve garantirne la tutela e la sicurezza, anche e soprattutto quando questi dati sono frutto di interscambi digitali tra fornitori, intermediari e clienti nella catena del valore. I dati utili a un’azienda crescono esponenzialmente In questo contesto è ormai ben evidente che non si può prescindere da tecnologie affidabili, sicure e ad accesso veloce come le tecnologie Flash. In quest’ambito è ben nota la leadership di IBM nel settore, ma lo stesso produttore non si culla negli allori e prosegue nello sviluppo della sua roadmap tecnologica, per esempio con i recenti FlashSystem 9100. Parlando di Big Data, inoltre, è fondamentale concentrarsi sull’elaborazione dei dati raccolti. L’archiviazione dai software legacy e la raccolta dei cosiddetti Alternative Data, ormai ritenuti fondamentali tanto quanto gli “ordinari”, richiede, come detto, un certo tipo di hardware. Ma, allo stesso modo, certe tecnologie come quelle dei sistemi Flash, diventano rilevanti anche nella elaborazione dei dati. Quindi, raccolta ed elaborazione. Ma, quando si parla di elaborazione, si tende a pensare alle capacità di calcolo dei sistemi hardware ma non abbastanza alle prestazioni dello storage. In un contesto più ampio, parlando di Intelligenza Artificiale, negli ultimi anni ci sono state delle evidenze che devono far riflettere. L’incremento delle prestazioni in ambito Deep Learning e processori grafici è stato eccezionale. Nello storage non tutti i vendor si sono adeguati alle nuove esigenze. Un sistema di Intelligenza Artificiale ha bisogno di tre asset fondamentali: il deep learning, le GPU (Graphic Processing Unit) e i Big Data. Ebbene, si pensi che in appena due anni gli algoritmi di deep learning hanno migliorato la loro efficacia di un fattore 15. Mentre, le GPU sono cresciute di 10 volte in termini di capacità di elaborazione. Big Data: anche lo storage deve [...]

I 5 benefici del cloud ibrido

Agli impegni finanziari, in primis il completamento dell’acquisizione di Red Hat, IBM ha aggiunto due rilasci concreti che si inquadrano all’interno della strategia cloud ibrido. IBM Multicloud Manager è una console di gestione che permette a clienti e partner di gestire in modo univoco e centralizzato i carichi e le risorse applicative con l’impressione di essere alla guida di un aereo in un gioco di simulazione. In questo modo si semplifica la gestione delle risorse come se fossero tutte in un ambiente unico e omogeneo, anche se non è così ma al cliente ciò non deve importare. Con gli strumenti di gestione centralizzata, governare un cloud sarà facile (quasi) come giocare. Altra soluzione rilasciata recentemente da IBM è AI OpenScale, una piattaforma che vigila sugli algoritmi alla base degli applicativi utilizzati dal cliente: se qualcosa non va AI OpenScale lo segnala e si può agire di conseguenza. Si tratta di qualcosa che, impropriamente, si potrebbe definire “middleware”, ovvero uno strato applicativo che si interpone tra i software che generano dati e informazioni sull’attività aziendale e il motore di machine learning. Una sorta di agente che controlla che i dati siano calcolati correttamente. Tutto questo impegno vale la candela? Insomma, il cloud ibrido è il prossimo futuro. IBM sostiene che il 98% delle aziende americane che ha contattato progettano di considerare a breve il passaggio a una architettura di cloud ibrido. Bene, ma cosa esattamente li ha convinti? Vediamo 5 benefici dell’approccio al cloud ibrido. Non si tratta solo di soldi Se pensi che il cloud ibrido faccia risparmiare, stai facendo un discorso riduttivo. Certo, la tecnologia è migliorativa dal punto di vista del budget, ma non è questo il motivo principale per cui dovresti passare al cloud ibrido. Si tratta di cambiare l’azienda Un servizio IaaS – Infrastructure as a Service – la componente applicativa fondamentale per un cloud ibrido sottoscrivibile previo abbonamento presso un fornitore di cloud pubblico, comprende un bouquet completo e in continuo aggiornamento di applicazioni aziendali. Il paradigma su cui si basano pressoché tutte è uno solo: il dato. Dare valore al dato significa una cosa sola: elevarlo a perno su cui fondare la propria digital transformation, e non ci sono alibi, è il mercato che lo chiede. Primo beneficio? Agilità Attorno al concetto di “agile” si è costruito una vera e propria filosofia. Ovvero, avere un’infrastruttura IT resiliente, che si adatti velocemente alle necessità di business. E il cloud ibrido è intrinsecamente agile, soddisfando i bisogni di un’azienda di adattare e aggiustare il tiro velocemente. Perché se non si ha questo dinamismo, prima o poi si soccombe sotto i colpi della concorrenza lungimirante. L’ibrido mette d’accordo tutti Lo svantaggio di un servizio IaaS su un cloud pubblico? Potrebbe essere la poca garanzia di sicurezza. E il costo della scalabilità. Ma le soluzioni come IBM Multicloud Manager e AI OpenScale servono esattamente a controllare e gestire le risorse impegnate, per evitare esborsi inutili. E il problema della sicurezza? Si risolve proteggendo le informazioni sulla componente [...]

Requiem per il disco rigido, grazie di tutto ma è ora dell’SSD

Sai qual è stato il primo disco rigido introdotto sul mercato? Era il 13 settembre 1956 e IBM inserì tra le componenti del suo IBM 305 RAMAC il disco fisso a testina magnetica. Il calcolatore, uno degli ultimi a valvole costruiti da IBM, pesava una tonnellata e conteneva fino a 350 dischi fissi di tipo 350 Disk Storage Unit, ognuno dei quali era formato da cinquanta dischi da 24 pollici. Il prezzo? 3.200 dollari di allora, equivalenti a circa 30mila dollari di oggi, al mese. E la capacità di ogni unità era, udite udite, ben 5 megabyte. Sono passati 62 anni ed è ora di pensionare il caro vecchio disco fisso, ovvero la tecnologia a testina magnetica, basilare in ogni dispositivo elettronico, grande o piccolo che sia, in cui era necessario memorizzare qualcosa. In tempi “non sospetti” IBM vendette la divisione storage a Hitachi Data System nel 2003 ma non abbandonò il mercato della memorizzazione di massa. Anzi, guardò avanti alle memorie allo stato solido, le SSD, diventando uno dei leader di mercato. L’anno scorso è stato l’anno del sorpasso in ambito consumer, ovvero i computer portatili con la memoria di tipo SSD hanno superato quelli con il disco fisso. Il sorpasso di SSD su HD arriverà anche nei data center? Ok, il sorpasso è avvenuto nei Personal Computer mentre gli HD continuano a dominare nei server e nelle appliance di storage presenti nei data center, o no? In verità, Gartner predice che entro il 2021 il 50% dei data center useranno memorie compatibili con la tecnologia SSA (Solid State Array), rispetto al 10% attuale. Insomma, la transizione verso i dischi a stato solido è iniziata, anche nei data center. Entro il 2021 la metà dei data center nel mondo userà memorie allo stato solido. Ci sono diversi motivi per cui sarebbe il caso di pensionare i vecchi dischi magnetici. L’affidabilità, i tempi di accesso ai dischi e lo spazio ridotto sono i primi tre e ora anche il costo non è più una discriminante. Infine, lo sostiene un report di Forrester, gli SSD fanno risparmiare soldi. Lo studio ha dimostrato un risparmio di decine di migliaia di dollari all’anno in costi di energia. Sì, ma a noi che ci importa? Tu, azienda cliente, che memorizzi i tuoi dati in un cloud, di che ti preoccupi? L’importante è che i tuoi dati siano al sicuro, poi se sono archiviati su un disco fisso tradizionale o un SSD, che importa? Beh, un pochino ti dovrebbe importare. Intanto, se hai scelto di passare a un cloud ibrido, sarebbe importante che il fornitore dei servizi IaaS ti garantisse un accesso ai dati veloce e sicuro, dunque accertati, attraverso il tuo partner, delle velocità di accesso ai dati. E, se una parte dei tuoi archivi risiede in un cloud privato, o addirittura on premise, ovvero nei server di tua proprietà, dovresti farti due domande. Che tecnologia di storage usano i tuoi server? Quanto sono datati? E qui entra il gioco il valore consulenziale [...]

Elogio del cloud ibrido, che mette d’accordo tutti: vendor, partner e clienti

In medio stat virtus, la massima latina riassume molto bene lo stato dell’arte del cloud. Per anni diviso tra cloud privata e pubblica, tra on premise e outsourcing totale, oggi il mercato ha trovato l’assetto giusto che, appunto, sta nel mezzo, ovvero nel cloud ibrido. Per strutturare un cloud ibrido si sfrutta un’infrastruttura di tipo as-a-service (IaaS) pubblica, un cloud privato, che potrebbe anche essere on premises, ovvero presso il cliente, e una connessione di tipo Wan (Wide Area Network) che garantisca un collegamento ad alta affidabilità – sicuro e veloce - tra i due cloud. Il coinvolgimento di ambienti diversi richiede estrema attenzione nella progettazione del flusso di informazioni che circolano ma, allo stesso tempo, la presenza di una IaaS garantisce una gestione ottimale dei carichi di lavoro applicativi e dello storage, fornendo, inoltre, risorse applicative e capacità computazionale impensabili in una architettura IT tradizionale. IBM cresce sempre di più nel cloud ibrido Con i recenti annunci, IBM pianta ancora più decisa la propria bandiera tra i leader del cloud ibrido. L’acquisizione di Red Hat per 34 miliardi di dollari è stata approvata dagli azionisti e ora è finalmente il momento di passare alla fase operativa. A corredo, si aggiunge un accordo da 325 milioni di dollari con Juniper Networks e la partnership da 550 milioni in otto anni con Vodafone. L’acquisizione per 34 miliardi di dollari di Red Hat da parte di IBM finalmente è operativa: così l’offerta cloud ibrido sarà ancora più completa. Impegni concreti per IBM, che dimostrano quanto l’azienda creda al cloud ibrido. E, visto il carattere particolare di questo paradigma in cui le componenti consulenziale, progettuale e di integrazione rappresentano il cuore di tutto il progetto, l’impegno dimostrato da IBM non può che rallegrare i Business Partner come Uno Informatica. Già, perché nessuno come un partner attivo sul territorio conosce la situazione IT dei propri clienti, e nessuno come un partner è in grado di fornire le competenze consulenziali necessarie in fase progettuale, di studio dei carichi previsti e di scelta e integrazione delle soluzioni applicative. Non sei ancora convinto che il cloud ibrido sia la soluzione migliore? Consideriamo ciò che abbiamo scritto poco fa: “fornendo, inoltre, risorse applicative e capacità computazionale impensabili in una architettura IT tradizionale”. Che vuol dire esattamente questo: anche investendo non sarebbe mai possibile raggiungere le potenzialità applicative dell’offerta disponibile in una infrastruttura IaaS. Gli applicativi di nuova generazione votati all’analisi dei dati All’interno di un’offerta IaaS, infatti, è disponibile una grande varietà di applicativi, molti dei quali soddisfano le necessità di una Digital Transformation fatta bene. L’Intelligenza Artificiale di cui si parla tanto, per esempio, molto spesso si riferisce al machine learning, ovvero alle capacità di prevedere determinati eventi a partire dall’analisi dei dati e delle informazioni che l’azienda fa transitare ogni giorno sul cloud. Possono essere informazioni finanziarie che, se ben gestite, ci possono fornire dei forecast precisi. Possono essere informazioni che riguardano la clientela (CRM) o la logistica e, anche in questo caso, le funzionalità di [...]

Il Software Defined Storage per una gestione degli archivi funzionale e proattiva per il business aziendale

Il Software Defined Storage è ormai tecnologia riconosciuta. Sono lontani i tempi in cui la capacità e le funzionalità di allocazione e gestione dello storage erano intimamente correlate all’hardware. Oggi non importa dove risiedano fisicamente gli archivi delle aziende, grazie alle soluzioni di virtualizzazione e a quelle di SDS come la suite IBM Spectrum Storage, lo storage è totalmente indipendente dalla posizione dell’hardware. In questo modo, le soluzioni di gestione permettono di allocare le risorse e muovere lo storage in maniera dinamica, producendo risposte rapide e virtuose sia nel caso di incremento delle richieste che in presenza di politiche di backup e disaster recovery. Il Software Defined Storage permette risposte rapide e virtuose in caso di incremento delle richieste di spazio e di attuazione di politiche di disaster recovery. Per gestire il tuo storage scegli il leader IBM è da tempo riconosciuta come vendor leader in ambito Software Defined Storage, settore in cui si propone attraverso otto componenti distinte della sua Spectrum Storage Suite, tutte pensate per la gestione storage in ambienti hybrid cloud. Si va dalla componente fondamentale di storage virtualization a quelle più specifiche per la data protection, la gestione analitica dei dati o quella pensata per aggregare i dati non strutturati, particolarmente d’attualità vista la sempre più crescente importanza di monitorare dati provenienti da fonti molto eterogenee. I motivi per cui la suite di IBM continua a essere riconosciuta come una delle più valide sul mercato riguardano la flessibilità, l’ampia scelta di funzionalità, il supporto per tutti gli standard di mercato, la facilità di gestione, la velocità e la garanzia di un monitoraggio continuo sul flusso di dati. La tecnologia SDS non dimostra solo interessanti vantaggi nella gestione virtuale dello storage ma permette l’esplorazione di nuovi ambiti applicativi. Uno riguarda certamente l’Intelligenza Artificiale, ovvero l’analisi delle informazioni archiviate con obiettivi di predittività e analisi dati. E, a questo proposito, la componente relativa della suite, IBM Spectrum AI, si è avvalsa recentemente dell’integrazione della piattaforma hardware Nvidia DGX, orientata appositamente all’approccio Deep Learning. Ma c’è un altro versante applicativo che si sta facendo largo grazie ai vantaggi dell’approccio Software Defined Storage. Definita come “data reuse”, che potremmo tradurre in “riciclo dei dati”, è facilmente comprensibile ai più. Con il Data Reuse, i dati più vecchi diventano fondamentali in una strategia di Data Intelligence finalizzata a migliorare le azioni di business. Secondo questo approccio, infatti, i dati archiviati non assumono solo un valore estemporaneo legato a esigenze di disaster recovery, ma diventano strategici, se elaborati in modo corretto, per costruire una solida base per le tecniche di machine e deep learning. Ma utilizzare dataset “vecchi” è possibile solo se la piattaforma di storage è assolutamente indipendente dalla loro localizzazione fisica, dunque esattamente secondo l’approccio SDS, e se si hanno a disposizione capacità computazionale e funzionalità estremamente potenti di virtualizzazione. A che serve il partner IBM? Ancora una volta, dobbiamo puntualizzare che ogni azienda ha le sue esigenze di storage, il proprio budget e i propri obiettivi di crescita. [...]

Gli IBM Power System basati su Power9 introducono innovazione proteggendo l’investimento

Qual è il supercomputer più potente in circolazione? Si chiama Summit ed è stato sviluppato da IBM per conto dell’Oak Ridge National Laboratory (Oak Ridge, Tennessee, USA), il più grande laboratorio di scienza ed energia del Dipartimento dell’Energia americano. Summit ospita applicazioni basate sull’Intelligenza Artificiale (reti neurali, machine learning) ed è basato sull’ultima CPU IBM Power9 e su processori grafici (GPU) Nvidia Volta V100. E, guarda un po’, anche il secondo in classifica, che si chiama Sierra, è basato su CPU IBM Power9. A un anno dalla loro introduzione, dunque, i processori di ultima generazione di IBM si dimostrano l’eccellenza, soprattutto per le applicazioni aziendali moderne che sfruttano algoritmi di intelligenza artificiale necessari a processare quantità di dati sempre più grandi. Un rinnovo di tecnologia “epocale” L’introduzione degli IBM Power9, e dei server basati su quelle architetture (i Power Systems AC922), non è un avvenimento frequente. Un rinnovo di tecnologia di questa importanza, infatti, avviene mediamente ogni 3-4 anni. La novità – è importante specificarlo – non preclude a futuri malanni di vecchi e nuovi clienti IBM poiché l’azienda americana insiste nell’aggiungere potenza di elaborazione garantendo allo stesso tempo la protezione dell’investimento e un TCO (Total Cost of Ownership) estremamente concorrenziale. I nuovi IBM Power System garantiscono la compatibilità con le applicazioni precedenti. Si protegge l’investimento nell’hardware ma, soprattutto, nel software, garantendone il funzionamento, nelle competenze tecniche richieste e nei modelli consolidati di organizzazione aziendale. Mal di testa scongiurati, insomma, ancora una volta. Grazie ai programmi di sostituzione di IBM, infatti, i clienti Power Systems potranno godere delle nuove performance senza saccheggiare troppo il budget IT, potranno continuare a usare le loro applicazioni e potranno contare su sistemi realmente “open”, ovvero aperti agli standard di mercato e ai prodotti Open Source. I Power9 sono anche per le PMI Ma l’architettura Power9 non è indirizzata solo alle grandi aziende con grandi esigenze e tanto budget. Anche l’ultima generazione di IBM Power Systems gode dei benefici della nuova architettura, permettendo così anche alle PMI italiane di gestire a costi contenuti le migliori soluzioni applicative sul mercato. Già, perché gli IBM Power System non arrivano “vuoti” presso il cliente, ma già pronti per supportare le necessità applicative aziendali. Poiché ogni azienda opera in un certo mercato, ha un diverso passato, diverse esigenze e diverse prospettive per il futuro, è fondamentale che la scelta delle configurazioni più opportune sia indirizzata dal business partner IBM. Ogni azienda è diversa, solo un Business Partner qualificato ne può comprendere le esigenze specifiche. Solo un operatore che vive ogni giorno a stretto contatto con i clienti e che conosce le necessità degli specifici mercati può capire quale sia la configurazione hardware e software più opportuna. E solo le sue risorse certificate possono coadiuvare il team informatico per personalizzare le configurazioni. CONTATTA UN ESPERTO

Ampliare la partnership con un cliente partendo da un progetto di backup e disaster recovery

Questa è la storia di un progetto di Backup e di Disaster Recovery dal lietissimo fine: la massima soddisfazione del cliente. Al punto da consolidare la partnership con ulteriori progetti in divenire. Siamo di fronte a un gruppo leader nel settore del Fashion, eccellenza del Made in Italy nel mondo, con presenza in diversi mercati esteri. Si parla di 20 milioni di capi confezionati e 50 milioni di metri stampati di tessuto all’anno, e di una distribuzione su un migliaio di punti vendita monomarca nel mondo. Sistemi distribuiti e disomogenei Il cliente ha l’esigenza di consolidare la propria infrastruttura IT e raggiungere la massima efficienza nel backup e nel restore dei dati presenti in diversi sistemi distribuiti nella sede centrale, in un data center remoto in outsourcing, in 5 sedi locali e in tre sedi estere. Si tratta di un flusso di circa 15 terabyte di dati su una rete da 100 Mbit, da deduplicare e comprimere. Il tutto in presenza di un hardware variegato e disomogeneo. I dati sono consolidati sui server della sede centrale, in cui si effettua un backup in locale e un’archiviazione mista su disco e su nastro da cui attingere per un eventuale restore. inoltre, è prevista una replica sullo spazio in outsourcing disponibile ad alcune centinaia di chilometri di distanza. Fase uno: dall’analisi all’ottimizzazione del software La prima fase si è aperta con una analisi fondamentale dello status quo delle infrastrutture e del software di gestione del backup e del disaster recovery, del computo del volume dei dati da gestire e dell ricostruzione del percorso degli stessi. Uno Informatica ha utilizzato i suoi strumenti di analisi predittiva, per fornire al cliente una mappatura precisa della situazione allo stato attuale, una previsione dell’incremento delle prestazioni e una simulazione della reazione ad eventuali stati di emergenza. il Proof of Concept non ha previsto alcuna sostituzione delle piattaforme hardware. Prima regola: rispettare il ROI sull’hardware. È possibile se si usa il software di gestione storage giusto. Si è venuto incontro, così, alle esigenze del cliente di rispettare il ROI relativo all’hardware ma, allo stesso tempo, si è garantito un notevole incremento delle prestazioni in termini di velocità e clusterizzazione della mole di dati da archiviare. Con grande soddisfazione del cliente, il software di gestione IBM Tivoli Storage Manager (TSM) che si pensava ormai inadeguato, è stato valorizzato dagli specialisti di Uno Informatica grazie a un attento lavoro di riconfigurazione. L’attività, inoltre, ha portato a un incremento dello storage da gestire con lo stesso TSM e all’acquisto di nuove licenze di una ulteriore piattaforma di gestione integrata dello storage. Fase due: quando si raggiunge, hai conquistato il cliente In circa 4 mesi, la prima fase del progetto di Backup e Disaster Recovery realizzato da Uno Informatica per un’importante realtà del fashion è stata conclusa. Oltre a ottimizzare l’utilizzo di IBM Tivoli Storage Management sono stati implementati nuovi servizi di scripting e di monitoring per agevolare la gestione dello storage e contribuire a velocizzare il go-to-market dell’azienda cliente. Un [...]

Torna in cima