Circa Uno Informatica

Questo autore non ha riempito alcun dettaglio.
Finora Uno Informatica ha creato 40 post nel blog.

Il Software Defined Storage per una gestione degli archivi funzionale e proattiva per il business aziendale

Il Software Defined Storage è ormai tecnologia riconosciuta. Sono lontani i tempi in cui la capacità e le funzionalità di allocazione e gestione dello storage erano intimamente correlate all’hardware. Oggi non importa dove risiedano fisicamente gli archivi delle aziende, grazie alle soluzioni di virtualizzazione e a quelle di SDS come la suite IBM Spectrum Storage, lo storage è totalmente indipendente dalla posizione dell’hardware. In questo modo, le soluzioni di gestione permettono di allocare le risorse e muovere lo storage in maniera dinamica, producendo risposte rapide e virtuose sia nel caso di incremento delle richieste che in presenza di politiche di backup e disaster recovery. Il Software Defined Storage permette risposte rapide e virtuose in caso di incremento delle richieste di spazio e di attuazione di politiche di disaster recovery. Per gestire il tuo storage scegli il leader IBM è da tempo riconosciuta come vendor leader in ambito Software Defined Storage, settore in cui si propone attraverso otto componenti distinte della sua Spectrum Storage Suite, tutte pensate per la gestione storage in ambienti hybrid cloud. Si va dalla componente fondamentale di storage virtualization a quelle più specifiche per la data protection, la gestione analitica dei dati o quella pensata per aggregare i dati non strutturati, particolarmente d’attualità vista la sempre più crescente importanza di monitorare dati provenienti da fonti molto eterogenee. I motivi per cui la suite di IBM continua a essere riconosciuta come una delle più valide sul mercato riguardano la flessibilità, l’ampia scelta di funzionalità, il supporto per tutti gli standard di mercato, la facilità di gestione, la velocità e la garanzia di un monitoraggio continuo sul flusso di dati. La tecnologia SDS non dimostra solo interessanti vantaggi nella gestione virtuale dello storage ma permette l’esplorazione di nuovi ambiti applicativi. Uno riguarda certamente l’Intelligenza Artificiale, ovvero l’analisi delle informazioni archiviate con obiettivi di predittività e analisi dati. E, a questo proposito, la componente relativa della suite, IBM Spectrum AI, si è avvalsa recentemente dell’integrazione della piattaforma hardware Nvidia DGX, orientata appositamente all’approccio Deep Learning. Ma c’è un altro versante applicativo che si sta facendo largo grazie ai vantaggi dell’approccio Software Defined Storage. Definita come “data reuse”, che potremmo tradurre in “riciclo dei dati”, è facilmente comprensibile ai più. Con il Data Reuse, i dati più vecchi diventano fondamentali in una strategia di Data Intelligence finalizzata a migliorare le azioni di business. Secondo questo approccio, infatti, i dati archiviati non assumono solo un valore estemporaneo legato a esigenze di disaster recovery, ma diventano strategici, se elaborati in modo corretto, per costruire una solida base per le tecniche di machine e deep learning. Ma utilizzare dataset “vecchi” è possibile solo se la piattaforma di storage è assolutamente indipendente dalla loro localizzazione fisica, dunque esattamente secondo l’approccio SDS, e se si hanno a disposizione capacità computazionale e funzionalità estremamente potenti di virtualizzazione. A che serve il partner IBM? Ancora una volta, dobbiamo puntualizzare che ogni azienda ha le sue esigenze di storage, il proprio budget e i propri obiettivi di crescita. [...]

Come evolvono le soluzioni per la protezione agli endpoint aziendali

Parafrasando Roberto Benigni e il suo Johnny Stecchino, il problema della security aziendale non è (solo) il traffico ma (soprattutto) gli autisti. È ben noto, infatti, che i danni più gravi a una infrastruttura IT aziendale sono provocati dai dipendenti più che da esterni. Si basa su questo il nuovo approccio “predictive security” per cui l’obiettivo è prevedere la natura del prossimo attacco, piuttosto che difendersi quando già è in atto o proteggersi da tipologie di attacchi che in 24 ore sono già stati sostituiti da qualcosa di più efficace. Succede, così, che il valore di mercato dell’End Point Protection, ovvero i software che si occupano di difendere gli endpoint (server, workstation e device mobili) usati per connettersi alla rete aziendale, è in costante incremento. Considerando solo questo tipo di soluzioni di sicurezza, parliamo di quasi 6 miliardi di dollari nel 2018 (fonte Global Market Insights) destinati ad arrivare a 7,5 entro il 2024. E succede che dal chiamarle soluzioni EPP (EndPoint Protection) si passi a EDR (Endpoint Detection and Response) perché il precedente approccio non è più sufficiente. Se, infatti, le EPP sono focalizzate esclusivamente nella protezione dell’endpoint, l’evoluzione EDR ci aggiunge il controllo della rete. Una console unificata per monitorare la sicurezza L’EDR, infatti, in aggiunta a un tool EPP o all’interno di una soluzione integrata, si occupa di monitorare in tempo reale la rete aziendale, concentrandosi sull’analisi dei dati e sulla risposta fornita dall’architettura a seguito dell’incidente occorso all’endpoint aziendale. In questo modo, l’architettura di sicurezza si avvale di una console unificata e di uno strumento di analisi in real time degli attacchi e, grazie al machine learning, rende la difesa predittiva. IBM BigFix, da anni leader tra i software dedicati all’Endpoint Protection, si è rapidamente evoluto alle esigenze del mercato aggiornandosi fino a presentarsi come una Collaborative Endpoint Management and Security Platform. IBM BigFix, ha l’obiettivo di colmare il gap di comunicazione tra i vari tool di sicurezza attraverso l’integrazione e la cooperazione. Il termine fondamentale della definizione è Collaborative: la soluzione di IBM, infatti, ha l’obiettivo di colmare il gap di comunicazione tra i vari tool di sicurezza attraverso l’integrazione e la cooperazione. Quando entra il gioco la parola “integrazione”, anche un partner qualificato IBM come Uno Informatica gioca un ruolo fondamentale. Infatti, integrare i vari tool in modo da gestirli attraverso una console unificata è il valore aggiunto del partner. Non tutte le aziende hanno le competenze e le risorse interne per procedere al necessario lavoro di integrazione e, per questo, è consigliabile affidarsi a chi può fare questo lavoro per loro conto. Ogni azienda è diversa, ha esigenze diverse e tool diversi e solo una precisa attività di assessment iniziale che faccia il punto della situazione, insieme al lavoro di integrazione e alla successiva modulazione di IBM BigFix può garantire i risultati promessi. La formazione al dipendente prima di tutto A questa attività, però, è consigliabile accostarne un’altra. Secondo Gartner, il mercato del Security Awareness Training ha superato da tempo il valore [...]

Gli IBM Power System basati su Power9 introducono innovazione proteggendo l’investimento

Qual è il supercomputer più potente in circolazione? Si chiama Summit ed è stato sviluppato da IBM per conto dell’Oak Ridge National Laboratory (Oak Ridge, Tennessee, USA), il più grande laboratorio di scienza ed energia del Dipartimento dell’Energia americano. Summit ospita applicazioni basate sull’Intelligenza Artificiale (reti neurali, machine learning) ed è basato sull’ultima CPU IBM Power9 e su processori grafici (GPU) Nvidia Volta V100. E, guarda un po’, anche il secondo in classifica, che si chiama Sierra, è basato su CPU IBM Power9. A un anno dalla loro introduzione, dunque, i processori di ultima generazione di IBM si dimostrano l’eccellenza, soprattutto per le applicazioni aziendali moderne che sfruttano algoritmi di intelligenza artificiale necessari a processare quantità di dati sempre più grandi. Un rinnovo di tecnologia “epocale” L’introduzione degli IBM Power9, e dei server basati su quelle architetture (i Power Systems AC922), non è un avvenimento frequente. Un rinnovo di tecnologia di questa importanza, infatti, avviene mediamente ogni 3-4 anni. La novità – è importante specificarlo – non preclude a futuri malanni di vecchi e nuovi clienti IBM poiché l’azienda americana insiste nell’aggiungere potenza di elaborazione garantendo allo stesso tempo la protezione dell’investimento e un TCO (Total Cost of Ownership) estremamente concorrenziale. I nuovi IBM Power System garantiscono la compatibilità con le applicazioni precedenti. Si protegge l’investimento nell’hardware ma, soprattutto, nel software, garantendone il funzionamento, nelle competenze tecniche richieste e nei modelli consolidati di organizzazione aziendale. Mal di testa scongiurati, insomma, ancora una volta. Grazie ai programmi di sostituzione di IBM, infatti, i clienti Power Systems potranno godere delle nuove performance senza saccheggiare troppo il budget IT, potranno continuare a usare le loro applicazioni e potranno contare su sistemi realmente “open”, ovvero aperti agli standard di mercato e ai prodotti Open Source. I Power9 sono anche per le PMI Ma l’architettura Power9 non è indirizzata solo alle grandi aziende con grandi esigenze e tanto budget. Anche l’ultima generazione di IBM Power Systems gode dei benefici della nuova architettura, permettendo così anche alle PMI italiane di gestire a costi contenuti le migliori soluzioni applicative sul mercato. Già, perché gli IBM Power System non arrivano “vuoti” presso il cliente, ma già pronti per supportare le necessità applicative aziendali. Poiché ogni azienda opera in un certo mercato, ha un diverso passato, diverse esigenze e diverse prospettive per il futuro, è fondamentale che la scelta delle configurazioni più opportune sia indirizzata dal business partner IBM. Ogni azienda è diversa, solo un Business Partner qualificato ne può comprendere le esigenze specifiche. Solo un operatore che vive ogni giorno a stretto contatto con i clienti e che conosce le necessità degli specifici mercati può capire quale sia la configurazione hardware e software più opportuna. E solo le sue risorse certificate possono coadiuvare il team informatico per personalizzare le configurazioni. CONTATTA UN ESPERTO

Fatturazione elettronica: Elettraweb aiuta a semplificare i processi

Dal 1 gennaio 2019 scatta l’obbligo della fatturazione elettronica tra privati. Si tratta di un sistema digitale di emissione, trasmissione e conservazione delle fatture che eviterà il ricorso all’equivalente cartaceo e, si immagina, garantisca una maggiore trasparenza nelle transazioni commerciali tra privati. È evidente che molte aziende dovranno correre ai ripari adeguando i loro sistemi informativi e le loro procedure interne, utilizzando i tool e le piattaforme predisposte al caricamento delle fatture. E dovranno farlo in fretta. Esistono dei mercati, poi, in cui il processo di fatturazione tra fornitori e clienti è articolato, tra questi sicuramente spicca il comparto dell’energia. In questo settore entrano in gioco dinamiche complesse di compravendita e distribuzione di acqua, gas ed energia elettrica. Inoltre, il rapporto economico tra fornitore dell’energia e azienda cliente, non è limpido come nel caso di una classica transazione commerciale in cui all’acquisto di un bene di un certo valore corrisponde un corrispettivo certo. Nella fatturazione dei consumi energetici i conti non tornano mai, è necessario un tool di monitoraggio adeguato. Nell’ambito della compravendita dell’energia entrano in gioco variabili specifiche come i consumi presunti o sistemi di misurazione non standard e non allineati, solo per fare gli esempi più evidenti. Le analisi predittive per valutare i consumi Nel corso degli anni, Elettraweb di Uno Informatica si è costruito la reputazione di applicativo affidabile e versatile, al punto da essere adottato da più di cinquanta clienti per la gestione della fatturazione dell’energia. Proprio per andare incontro alle nuove esigenze dei clienti, non ultima la gestione della fatturazione elettronica, Elettraweb si propone ulteriormente come tool di controllo dei costi e dei consumi per ristabilire il controllo completo sul flusso di cassa. Un monitoraggio lungo tutta la filiera dell’energia Le prossime release di Elettraweb, che sublimeranno nella nuova versione prevista per metà del 2019, hanno l’obiettivo di risolvere questi aspetti. In particolare, si introdurranno degli algoritmi predittivi, anche grazie all’uso di tecnologie IoT, che, ci si aspetta, permetteranno di far tornare i conti in un ambito in cui i conti non tornano mai. Le discrepanze tra consumi e costi addebitati per i clienti “energivori” possono valere anche migliaia di euro. In particolare, è obiettivo di Uno Informatica garantire un’interazione migliore con il sistema di rilevazione dell’utente, qualunque esso sia, per confrontare i dati con quelli che provengono dal sistema informativo del fornitore. Una funzionalità, questa, particolarmente utile ai clienti “energivori”, quelli per cui il calcolo del consumo corretto può significare un risparmio anche di centinaia di euro. SCOPRI DI PIÙ RICHIEDI UNA CONSULENZA

Ampliare la partnership con un cliente partendo da un progetto di backup e disaster recovery

Questa è la storia di un progetto di Backup e di Disaster Recovery dal lietissimo fine: la massima soddisfazione del cliente. Al punto da consolidare la partnership con ulteriori progetti in divenire. Siamo di fronte a un gruppo leader nel settore del Fashion, eccellenza del Made in Italy nel mondo, con presenza in diversi mercati esteri. Si parla di 20 milioni di capi confezionati e 50 milioni di metri stampati di tessuto all’anno, e di una distribuzione su un migliaio di punti vendita monomarca nel mondo. Sistemi distribuiti e disomogenei Il cliente ha l’esigenza di consolidare la propria infrastruttura IT e raggiungere la massima efficienza nel backup e nel restore dei dati presenti in diversi sistemi distribuiti nella sede centrale, in un data center remoto in outsourcing, in 5 sedi locali e in tre sedi estere. Si tratta di un flusso di circa 15 terabyte di dati su una rete da 100 Mbit, da deduplicare e comprimere. Il tutto in presenza di un hardware variegato e disomogeneo. I dati sono consolidati sui server della sede centrale, in cui si effettua un backup in locale e un’archiviazione mista su disco e su nastro da cui attingere per un eventuale restore. inoltre, è prevista una replica sullo spazio in outsourcing disponibile ad alcune centinaia di chilometri di distanza. Fase uno: dall’analisi all’ottimizzazione del software La prima fase si è aperta con una analisi fondamentale dello status quo delle infrastrutture e del software di gestione del backup e del disaster recovery, del computo del volume dei dati da gestire e dell ricostruzione del percorso degli stessi. Uno Informatica ha utilizzato i suoi strumenti di analisi predittiva, per fornire al cliente una mappatura precisa della situazione allo stato attuale, una previsione dell’incremento delle prestazioni e una simulazione della reazione ad eventuali stati di emergenza. il Proof of Concept non ha previsto alcuna sostituzione delle piattaforme hardware. Prima regola: rispettare il ROI sull’hardware. È possibile se si usa il software di gestione storage giusto. Si è venuto incontro, così, alle esigenze del cliente di rispettare il ROI relativo all’hardware ma, allo stesso tempo, si è garantito un notevole incremento delle prestazioni in termini di velocità e clusterizzazione della mole di dati da archiviare. Con grande soddisfazione del cliente, il software di gestione IBM Tivoli Storage Manager (TSM) che si pensava ormai inadeguato, è stato valorizzato dagli specialisti di Uno Informatica grazie a un attento lavoro di riconfigurazione. L’attività, inoltre, ha portato a un incremento dello storage da gestire con lo stesso TSM e all’acquisto di nuove licenze di una ulteriore piattaforma di gestione integrata dello storage. Fase due: quando si raggiunge, hai conquistato il cliente In circa 4 mesi, la prima fase del progetto di Backup e Disaster Recovery realizzato da Uno Informatica per un’importante realtà del fashion è stata conclusa. Oltre a ottimizzare l’utilizzo di IBM Tivoli Storage Management sono stati implementati nuovi servizi di scripting e di monitoring per agevolare la gestione dello storage e contribuire a velocizzare il go-to-market dell’azienda cliente. Un [...]

Come affrontare i rischi di sicurezza dell’IoT con QRadar e Watson

Come se non bastasse, al dipendente, il principale incubo per la sicurezza IT di un’azienda, si aggiungeranno presto i dispostivi IoT. I responsabili della sicurezza dovranno così mettere in conto, oltre alla superficialità dei comportamenti umani, la fragilità delle architetture IoT. L’integrazione nella rete aziendale dei numerosi dispositivi di cui spesso non si può garantire la sicurezza perché magari non se ne ha il controllo diretto, è certamente il pericolo pubblico numero uno che i CIO (Chief Information Officer) dovranno affrontare nel prossimo futuro. L’approccio al problema è totalmente nuovo. Un dispositivo IoT viene integrato all’interno della rete aziendale, diventando un endpoint a tutti gli effetti e, nella maggioranza dei casi, non è protetto da un livello di sicurezza equivalente a quello che un CIO può garantire agli altri terminali. Inoltre, può succedere, per esempio in un ambito Smart Fabric, che lo stesso dispositivo sia connesso a reti di diverse aziende e che la sua gestione non sia di propria competenza. Gartner si aspetta che più del 65% delle aziende entro il 2020 gestirà dispositivi IoT. Come fare a garantire l’aderenza alle normative sulla privacy? Il dispositivo IoT, in fondo, è un terminale da cui partono e arrivano dati e informazioni che, nella migliore delle ipotesi, sono protetti da standard di sicurezza classici di una rete come, per esempio, la crittografia. Le informazioni raccolte, inoltre, possono comprendere dati personali di cui, a causa delle normative sulla privacy come il GDPR, l’azienda è pienamente responsabile. È evidente, insomma, che i dispositivi IoT portino in eredità un’insicurezza intrinseca e nuovi livelli di incertezza. Non è un caso, infatti, che la sicurezza delle infrastrutture IoT sia la maggior preoccupazione degli esperti nei prossimi anni. Come garantire l’aderenza al GDPR della raccolta dei dati nel perimetro di una Smart City, per esempio dalle videocamere? Una soluzione integrata di monitoraggio e previsione IBM cerca di mettere una pezza al problema proponendo un’integrazione decisamente interessante. All’interno della soluzione IBM QRadar Security Analytics Platform, leader riconosciuta nel settore, il vendor ha integrato le funzionalità cognitive della piattaforma Watson pensate proprio per ambienti IoT. Così, si propone attraverso i partner la soluzione Watson for Cyber Security che ha l’obiettivo di rilevare le minacce nascoste e automatizzare gli insight grazie all’analisi dei dati non strutturati. Si tratta dell’approccio attualmente riconosciuto come il più efficace per anticipare eventuali attacchi. Si “ascolta” la rete per prevedere cosa potrà succedere e si fa affidamento sulla capacità di machine learning e di elaborazione di QRadar. Attraverso il nuovo approccio, IBM garantisce maggiore intelligenza, grazie all’interpretazione delle informazioni su un nuovo rischio che circolano in rete. Ma anche maggiore velocità di risposta e maggiore precisione, grazie alle capacità del motore di Watson e di QRadar. Anche in questo caso, infine, l’apporto del system integrator specializzato sarà determinante per comprendere le vulnerabilità di ogni singola architettura e tarare la soluzione IBM per ottenere i risultati aspettati. SCOPRI DI PIÙ SULLE SOLUZIONI DI SICUREZZA CONTATTACI PER UNA CONSULENZA

Cos’è il valore aggiunto di un System Integrator oggi?

Un vendor come IBM ci mette le soluzioni e le piattaforme, valide e performanti, e il partner il cosiddetto valore aggiunto. Capiamo meglio, però, di che valore aggiunto parliamo quando il partner è un system integrator di fascia alta, abituato a interloquire con aziende italiane di grandi e medie dimensioni. E capiamo di che valore aggiunto parliamo quando si tratta di lavorare su piattaforme IT complesse, su sistemi e storage estesi, in modalità Cloud, On Site o Ibrida, che hanno richiesto investimenti considerevoli e per i quali si richiede un ROI garantito. Oggi un’azienda ha bisogno di un mix di servizi e sviluppo. Servizi di assessment e auditing applicati alle piattaforme e alle architetture IT con l’obiettivo di una rapida migrazione verso la Digital Transformation. Una trasformazione di strutture, ma anche e soprattutto di processi e risorse umane. Una trasformazione ormai considerata un abilitatore fondamentale per il business, e non certo un trend passeggero. I servizi che richiede il mercato Uno Informatica, per esempio, sta registrando importanti riscontri dall’implementazione del suo Capacity Planning – un servizio basato su algoritmi predittivi capace di pianificare le mutevoli esigenze di storage e di elaborazione. Cosa può soddisfare meglio gli obiettivi di ROI di un software in grado di pianificare con estrema precisione l’upgrade delle risorse IT in base alle nuove necessità? Ci sono anche altri servizi particolarmente utili, se non necessari, da cui un’azienda non può prescindere e per i quali è certamente meglio affidarsi a un partner esterno. Servizi per il consolidamento. Fermo restando che il diktat è salvare l’investimento, si deve lavorare sull’infrastruttura esistente allineandola alle nuove esigenze, eseguendo un fine tuning e aggiornando le configurazioni grazie ad applicativi specifici di supporto. Servizi per il monitoraggio. Un’infrastruttura complessa ha la necessità di un monitoraggio continuo e periodico da effettuare con tool appositi. È fondamentale posizionare gli indicatori giusti all’interno della infrastruttura – in Cloud, on site o su strutture terze - e garantire una manutenzione puntuale e veloce. Per questo si utilizzano tool di reportistica che non solo registrano le attività ma sono in grado, grazie al Machine Learning, di prevedere gli interventi. I software standard che sfruttano il Machine Learning per prevenire gli eventi devono essere configurati in base all’infrastruttura IT di ogni singola azienda. Servizi di assistenza. A un help desk di primo livello, spesso garantito dalle risorse interne all’azienda cliente, diventa sempre più determinante accostare un servizio di secondo livello, più specialistico e competente sulle singole soluzioni. La complessità e la specificità delle soluzioni, infatti, non aiuta i “tuttologi”: c’è bisogno di competenze specifiche e costantemente aggiornate. SCRIVI A UN NOSTRO CONSULENTE SCOPRI TUTTI I NOSTRI SERVIZI

La revisione di un piano di Business Continuity a seguito di una fusione aziendale

Le acquisizioni e le fusioni portano sempre in dote grattacapi. C’è da rivedere l’organigramma, riorganizzare le divisioni aziendali, i flussi di lavoro e, soprattutto, uniformare il sistema informativo. Si tratta di attività estremamente delicate e onerose in termini di tempo e risorse. La revisione e l’unificazione della piattaforma informatica, inoltre, è ormai da considerare a monte della riorganizzazione aziendale, dato che assume un valore strategico fondamentale. Spesso ci si trova di fronte a strutture eterogenee, obsolete e incompatibili, per cui il colpo di spugna potrebbe essere la soluzione più veloce ed efficace. Ma non sempre a una fusione corrisponde una disponibilità di budget a disposizione dei responsabili dei sistemi informativi. In caso di fusioni aziendali, il colpo di spugna all’infrastruttura IT non è quasi mai contemplato. Il valore della distribuzione geografica dei data center Uno Informatica ha avuto l’opportunità di intervenire in un importante progetto di unificazione dei sistemi aziendali a seguito dell’incorporazione di tre realtà nell’ambito della Grande Distribuzione Organizzata. In particolare, l’azienda è stata coinvolta in un progetto di Business Continuity in cui si sarebbe dovuto rivedere il flusso di Backup e di Disaster Recovery all’interno di una nuova distribuzione dei data center. La situazione iniziale prevedeva una gestione della Business Continuity certamente non ottimale, addirittura con repliche previste sullo stesso luogo. La replica su hardware posto a poca distanza è una pratica ancora troppo diffusa tra le medie imprese italiane. Spesso per mancanza di un’opportuna analisi a priori e per la necessità di un veloce adeguamento alla compliance, si ricorre alla soluzione più rapida, che è anche la più sconsigliata. È decisamente consigliabile, infatti, che una replica di dati all’interno di un progetto di Disaster Recovery e/o Business Continuity si preveda su due o più data center posti a una certa distanza geografica. Oggi, fortunatamente, grazie alla continua riduzione del costo di archiviazione, alla maggiore disponibilità di data center in outsourcing sul territorio italiano e alla totale affidabilità delle infrastrutture in cloud ibrido, si può garantire una Business Continuity efficace a costi ridotti. Un’attenta analisi di previsione con Capacity Planning Nel caso in esame, Uno Informatica ha subito applicato Capacity Planning, il suo tool proprietario di analisi e previsione, per avere un’idea precisa del carico di dati da gestire tra un data center e l’altro, nel presente e nel futuro. Inoltre, si è deciso di utilizzare IBM Spectrum Control, tool software per il monitoraggio, l’automazione e l’analisi di ambienti di storage di più fornitori. Una volta definita la visione completa, Uno Informatica ha proposto al cliente le priorità di intervento. La base di partenza era una piattaforma di gestione storage non IBM che si sarebbe rivelata non più all’altezza delle nuove esigenze. Esigenze di High Avaliability espressamente richieste dal cliente. Per questo l’intervento di revisione ha dovuto comprendere anche l’hardware e, di comune accordo, si è scelto di riprogettare l’intero ambiente su System & Storage basato su piattaforma IBM Power 8 e relativi applicativi IBM di gestione del backup e del recovery. Le esigenze di High Avaliability [...]

I mercati verticali più adatti a un approccio Enterprise Asset Management

Esistono dei mercati in cui la soluzione IBM Watson IoT e l’approccio Enterprise Asset Management è più opportuno? A ben vedere, ogni azienda possiede degli asset, indipendentemente dal fatto che generi prodotti o servizi. Un’azienda del settore della logistica, per esempio, si occupa di distribuire prodotti realizzati da altri ma possiede degli asset, i mezzi di trasporto, di cui ha necessità di ottimizzare rotte e impiego. Così, un modello di ottimizzazione degli asset, a ben vedere, è opportuno in (quasi) tutti i mercati verticali. Ma ci sono ambiti in cui l’utilizzo di soluzioni come IBM Watson IoT per l’EAM risulta ancora più efficace grazie alla generazione di ROI immediati e tangibili. Vediamo alcuni tra i più significativi e perché: Manufacturing. Il regno degli asset per eccellenza è la produzione industriale. L’implementazione della tecnologia IoT su macchinari e componenti all’interno delle fabbriche e dei magazzini è alla base del Piano Nazionale Industria 4.0 lanciato dal Ministero dello Sviluppo Economico. La sua applicazione non solo porta benefici alle aziende del comparto in termini di competitività e innovazione, ma abilita lo sfruttamento degli incentivi previsti. Transportation. Come detto, le aziende impegnate nel settore dei trasporti il più delle volte non generano un prodotto ma un servizio. Più si monitora questo servizio con sensori e agenti software, più si sarà capaci di interpretare i Big Data ricavati da questo monitoraggio e più sarà possibile ottimizzare il servizio, anche in tempo reale, generando business immediato. Energy & utilities. Il comparto è un classico esempio in cui produzione (prodotto) e distribuzione (servizio) convivono. Anche in questo caso l’apporto di un modello di Enterprise Asset Management può risultare determinante. Si pensi al suo utilizzo all’interno delle reti di trasmissione, degli impianti di produzione, delle piattaforme e delle raffinerie. All’interno di questo ambito, il comparto idrico, come sorgente di produzione di una materia prima, può trarre ampio beneficio dall’Enterprise Asset Management. Anche in questo caso l’obiettivo può essere il monitoraggio ai fini preventivi. Si pensi anche solo alle calamità naturali. Edilizia. Il comparto in cui la parola asset è nata non poteva non essere nella lista. Un tempo si faceva l’inventario e, ahinoi, in tante strutture pubbliche lo si fa ancora, a mano. Non sarebbe tutto più semplice, e più sicuro, monitorare da una console centralizzata stato, usura e movimenti degli asset mobili e immobili? Se poi andiamo a sfogliare i casi di eccellenza in cui un approccio Enterprise Asset Management è stato applicato con successo, troviamo casi virtuosi anche in settori diversi da quelli classificati. Perché, alla fine, siamo di fronte a un approccio metodologico. È proprio questo l’Enterprise Asset Management, un metodo completo grazie al quale è possibile riprendere in mano il controllo della propria azienda, grazie alla tecnologia. Qualcosa che va ben oltre la mera implementazione di una piattaforma hardware/software. Una metodologia che, se applicata bene grazie al supporto di un partner qualificato, non solo genera un ROI più o meno immediato, ma che determina un drastico cambiamento di visione della propria realtà aziendale [...]

Esalta il valore dei tuoi asset con un Enterprise Asset Management vincente

Spesso il termine “asset” entra nelle conversazioni aziendali all’improvviso. Si parla di asset, e se ne dà un valore, quando per un’azienda si prospetta un’acquisizione. Quando si è davanti a un cambiamento radicale, in positivo o in negativo. Se ne parla troppo poco, invece, durante la normale routine aziendale. Ma, proprio perché a ogni asset aziendale corrisponde un valore misurabile, se ne dovrebbe parlare di più. Perché il valore dell’azienda è il valore dei suoi asset. Termine che oggi definisce molto di più di un semplice macchinario di produzione. L’Enterprise Asset Management è un concetto molto ampio e complesso che IBM descrive come la gestione ottimale del ciclo di vita delle strutture fisiche di una qualsiasi azienda. Un’azienda che ha una visione completa e sempre aggiornata dei propri asset è un’azienda vincente, competitiva, che certamente non vedrà svenduti i suoi asset. L’approccio IBM all’Enterprise Asset Management - declinato attraverso l’originaria offerta Maximo presto inglobata all’interno di Watson IoT - è stato talmente riconosciuto nel tempo dal mercato fino a diventare il leader assoluto. D’altronde, come non premiare una soluzione che, anche e soprattutto grazie al valore aggiunto dei partner di progetto, ha garantito tempi di fermo ridotti fino al 20%, un incremento fino al 20% dell’utilizzo del personale, una minore esigenza di inventario fino a un massimo del 30% e un utilizzo degli asset superiore al 3%? Tempi di fermo ridotti del 5-20% Utilizzo del personale maggiore del 10-20% Esigenze di inventario inferiori del 20-30% Utilizzo degli asset superiore del 3-5%           *fonte IBM Pillar e impatto dell’Enterprise Asset Management Quali sono i pillar di una soluzione di Enterprise Asset Management? Ovvero, quali tecnologie può sfruttare oggi un’azienda per gestire i propri asset al punto da poter raccogliere un ROA (Return on Asset) reale e misurabile? Gli assiomi tecnologici, oggi disponibili e consolidati, su cui si basa l’Enterprise Asset Management si chiamano Internet of Things (IoT), Software as a Service (SaaS), Wireless connectivity (Mobility) e Analytics (Big Data). Tra tutti questi è indubbiamente l’Internet of Things l’abilitatore scatenante. Senza dotare gli asset di un sensore, semplificando, non si potranno sfruttare gli altri abilitatori. Rendendo “intelligenti” e connessi gli asset, si potrà godere dei dati a fini di monitoraggio e di predizione, sempre semplificando estremamente. E su quali aspetti dell’ecosistema aziendale l’EAM va a incidere, in positivo? Migliora la gestione del rischio e della compliance Eleva la qualità dell’operatività Determina una resilienza del business Soddisfa le previsioni di business Consolida il completo ecosistema. O, se vogliamo, in tre claim: incrementa l’efficienza, abilita l’innovazione, trasforma il business. Il ruolo del Business Partner IBM Stabilito che un approccio EAM è opportuno e doveroso per l’azienda del futuro, e se non siamo ancora convinti possiamo dare un’occhiata ai casi di eccellenza riflettiamo sul ruolo del Business Partner IBM rispetto a questo approccio. Ci sono almeno quattro motivi per cui il ruolo del partner è fondamentale. Affinare il modello. IBM Watson IoT è un modello complesso, solo un partner che conosce [...]