Gli IBM Power System basati su Power9 introducono innovazione proteggendo l’investimento

Qual è il supercomputer più potente in circolazione? Si chiama Summit ed è stato sviluppato da IBM per conto dell’Oak Ridge National Laboratory (Oak Ridge, Tennessee, USA), il più grande laboratorio di scienza ed energia del Dipartimento dell’Energia americano. Summit ospita applicazioni basate sull’Intelligenza Artificiale (reti neurali, machine learning) ed è basato sull’ultima CPU IBM Power9 e su processori grafici (GPU) Nvidia Volta V100. E, guarda un po’, anche il secondo in classifica, che si chiama Sierra, è basato su CPU IBM Power9. A un anno dalla loro introduzione, dunque, i processori di ultima generazione di IBM si dimostrano l’eccellenza, soprattutto per le applicazioni aziendali moderne che sfruttano algoritmi di intelligenza artificiale necessari a processare quantità di dati sempre più grandi. Un rinnovo di tecnologia “epocale” L’introduzione degli IBM Power9, e dei server basati su quelle architetture (i Power Systems AC922), non è un avvenimento frequente. Un rinnovo di tecnologia di questa importanza, infatti, avviene mediamente ogni 3-4 anni. La novità – è importante specificarlo – non preclude a futuri malanni di vecchi e nuovi clienti IBM poiché l’azienda americana insiste nell’aggiungere potenza di elaborazione garantendo allo stesso tempo la protezione dell’investimento e un TCO (Total Cost of Ownership) estremamente concorrenziale. I nuovi IBM Power System garantiscono la compatibilità con le applicazioni precedenti. Si protegge l’investimento nell’hardware ma, soprattutto, nel software, garantendone il funzionamento, nelle competenze tecniche richieste e nei modelli consolidati di organizzazione aziendale. Mal di testa scongiurati, insomma, ancora una volta. Grazie ai programmi di sostituzione di IBM, infatti, i clienti Power Systems potranno godere delle nuove performance senza saccheggiare troppo il budget IT, potranno continuare a usare le loro applicazioni e potranno contare su sistemi realmente “open”, ovvero aperti agli standard di mercato e ai prodotti Open Source. I Power9 sono anche per le PMI Ma l’architettura Power9 non è indirizzata solo alle grandi aziende con grandi esigenze e tanto budget. Anche l’ultima generazione di IBM Power Systems gode dei benefici della nuova architettura, permettendo così anche alle PMI italiane di gestire a costi contenuti le migliori soluzioni applicative sul mercato. Già, perché gli IBM Power System non arrivano “vuoti” presso il cliente, ma già pronti per supportare le necessità applicative aziendali. Poiché ogni azienda opera in un certo mercato, ha un diverso passato, diverse esigenze e diverse prospettive per il futuro, è fondamentale che la scelta delle configurazioni più opportune sia indirizzata dal business partner IBM. Ogni azienda è diversa, solo un Business Partner qualificato ne può comprendere le esigenze specifiche. Solo un operatore che vive ogni giorno a stretto contatto con i clienti e che conosce le necessità degli specifici mercati può capire quale sia la configurazione hardware e software più opportuna. E solo le sue risorse certificate possono coadiuvare il team informatico per personalizzare le configurazioni. CONTATTA UN ESPERTO

La revisione di un piano di Business Continuity a seguito di una fusione aziendale

Le acquisizioni e le fusioni portano sempre in dote grattacapi. C’è da rivedere l’organigramma, riorganizzare le divisioni aziendali, i flussi di lavoro e, soprattutto, uniformare il sistema informativo. Si tratta di attività estremamente delicate e onerose in termini di tempo e risorse. La revisione e l’unificazione della piattaforma informatica, inoltre, è ormai da considerare a monte della riorganizzazione aziendale, dato che assume un valore strategico fondamentale. Spesso ci si trova di fronte a strutture eterogenee, obsolete e incompatibili, per cui il colpo di spugna potrebbe essere la soluzione più veloce ed efficace. Ma non sempre a una fusione corrisponde una disponibilità di budget a disposizione dei responsabili dei sistemi informativi. In caso di fusioni aziendali, il colpo di spugna all’infrastruttura IT non è quasi mai contemplato. Il valore della distribuzione geografica dei data center Uno Informatica ha avuto l’opportunità di intervenire in un importante progetto di unificazione dei sistemi aziendali a seguito dell’incorporazione di tre realtà nell’ambito della Grande Distribuzione Organizzata. In particolare, l’azienda è stata coinvolta in un progetto di Business Continuity in cui si sarebbe dovuto rivedere il flusso di Backup e di Disaster Recovery all’interno di una nuova distribuzione dei data center. La situazione iniziale prevedeva una gestione della Business Continuity certamente non ottimale, addirittura con repliche previste sullo stesso luogo. La replica su hardware posto a poca distanza è una pratica ancora troppo diffusa tra le medie imprese italiane. Spesso per mancanza di un’opportuna analisi a priori e per la necessità di un veloce adeguamento alla compliance, si ricorre alla soluzione più rapida, che è anche la più sconsigliata. È decisamente consigliabile, infatti, che una replica di dati all’interno di un progetto di Disaster Recovery e/o Business Continuity si preveda su due o più data center posti a una certa distanza geografica. Oggi, fortunatamente, grazie alla continua riduzione del costo di archiviazione, alla maggiore disponibilità di data center in outsourcing sul territorio italiano e alla totale affidabilità delle infrastrutture in cloud ibrido, si può garantire una Business Continuity efficace a costi ridotti. Un’attenta analisi di previsione con Capacity Planning Nel caso in esame, Uno Informatica ha subito applicato Capacity Planning, il suo tool proprietario di analisi e previsione, per avere un’idea precisa del carico di dati da gestire tra un data center e l’altro, nel presente e nel futuro. Inoltre, si è deciso di utilizzare IBM Spectrum Control, tool software per il monitoraggio, l’automazione e l’analisi di ambienti di storage di più fornitori. Una volta definita la visione completa, Uno Informatica ha proposto al cliente le priorità di intervento. La base di partenza era una piattaforma di gestione storage non IBM che si sarebbe rivelata non più all’altezza delle nuove esigenze. Esigenze di High Avaliability espressamente richieste dal cliente. Per questo l’intervento di revisione ha dovuto comprendere anche l’hardware e, di comune accordo, si è scelto di riprogettare l’intero ambiente su System & Storage basato su piattaforma IBM Power 8 e relativi applicativi IBM di gestione del backup e del recovery. Le esigenze di High Avaliability [...]

L’importanza di un metodo scientifico nell’analisi dello storage

Nel 1713 il matematico svizzero Nicola Bernoulli pubblica il trattato postumo Ars Conjectandi dello zio Jacob, anche lui noto matematico. Si tratta di un testo storico per la matematica che eleva il Calcolo delle Probabilità a disciplina di grande interesse. La famiglia Bernoulli è stata certamente quella che ha desiderato più di tutti che il Calcolo delle Probabilità diventasse finalmente qualcosa di più di un gioco e che potesse realmente risolvere importanti questioni “professionali”. A distanza di 305 anni, il testo sacro della probabilità, i suoi teoremi e le sue conclusioni rappresentano ancora la base per una metodologia di grande aiuto alle aziende. L’arte di fare delle congetture sui dati oggi è demandata ai software che, grazie alla potenza di calcolo raggiunta dai computer, sono utilizzate nei campi più diversi: dalla finanza (Fintech) all’Agricoltura, dalla Produzione Industriale al mercato Retail passando per la Meteorologia. In tutti l’obiettivo rimane sempre lo stesso: prevedere e pianificare comportamenti futuri dall’analisi dei comportamenti passati. Uno Informatica ha esteso l’utilizzo di tali metodologie all’ambito IT così da prevedere in tempi brevissimi le modifiche richieste a un’architettura IT per continuare a essere all’altezza delle necessità di un’azienda. Le aziende utilizzano ambienti storage (IBM e non) e server (IBM Power Systems e x86) estremamente dinamici e mutevoli. Se non si percepisce in tempo la necessità di un assessment, si rischia di dover intervenire in emergenza e in extra-budget. Siamo di fronte ad ambienti tecnologici vitali per un’azienda, che anche in tempi di elevata complessità devono continuare a erogare i servizi a cui sono predisposti. Si tratta di architetture in continua evoluzione, da ridimensionare o da espandere velocemente per soddisfare nuove esigenze di business, come l’apertura di una nuova filiale o di un nuovo polo produttivo. L’arte di apprendere dai dati: il Capacity Planning Di fronte a uno scenario così dinamico diventa fondamentale l’innovativo approccio tipico del Calcolo delle Probabilità che, in base all’esperienza è in grado di fare previsioni per il futuro. È esattamente l’arte di apprendere dai dati che ha cercato di trasmetterci Bernoulli. Grazie a un approccio dati-modello-dati assolutamente scientifico, Uno Informatica è in grado di fornire valutazioni molto precise e dimostrabili sullo stato e sulla relazione presente/futuro dell’infrastruttura storage e server dell’azienda cliente. Il modello scientifico di Capacity Planning basato su tool come Spectrum Control di IBM, prevede l’analisi della piattaforma storage e server preesistente, l’acquisizione di informazioni che riguardano lo spazio occupato a regime, il flusso dei dati, la velocità di elaborazione e di trasferimento ecc. tutto in maniera indipendente dalla specifica architettura. Ogni cliente, però ha esigenze diverse. È dunque fondamentale integrare il modello standard con un’analisi personalizzata della situazione. Ed è qui che il valore aggiunto di un partner esperto in storage come Uno Informatica fa la differenza. Un partner visionario che per primo e ancora unico ha portato questo approccio statistico all’interno delle metodologie tradizionale di Capacity Planning. Sarebbe facile proporsi come opportunistici salvatori della patria e fare tabula rasa del preesistente. Uno Informatica preferisce fornire una visione il [...]

Torna in cima