Managed Services e ITSM/ITIL, la risposta giusta per garantire continuità e sicurezza al tuo business, ovvero l’arte di far funzionare il business

In un momento in cui l’innovazione digitale è sempre più spesso guidata dalle line of business e diventa la leva strategica per garantire maggiore competitività e resilienza, non è sempre facile per i dipartimenti IT tenere davvero il passo con una digital transformation sempre più pervasiva. Man mano che un’impresa cresce, aumentano anche le sue esigenze IT e il team interno potrebbe non essere in grado di gestire non solo un aumento di carico, ma soprattutto la crescente complessità che i percorsi e i processi di innovazione spesso portano con sé. In altre parole, questa esigenza è spesso sintetizzata con la semplice richiesta: “Vorrei passare da un servizio di Help Desk a un Service Desk: mi puoi essere d’aiuto?”. Ebbene la domanda solo apparentemente semplice significa avviare un significativo processo di cambiamento: trasformare un IT generico in una disciplina ITSM (IT Service Management) formalizzata per assicurare la coerenza dei propri obiettivi con quelli del business, l'adozione di best practices (ITIL) e la riduzione del lavoro manuale a favore dell'automazione allo scopo di creare e fornire valore. Ed è qui che entrano in gioco i servizi gestiti, ovvero la possibilità di affidare a un partner - a una terza parte - la responsabilità sulla funzionalità dei servizi e dell’infrastruttura IT. Dal punto di vista del cliente questo significa avere la possibilità di concentrarsi sulle attività core del proprio business, a fronte di una spesa concordata e per questo prevedibile e ricorrente. Non solo. Uno dei vantaggi correlati ai managed services è che non solo consentono ai dipendenti di concentrarsi sulle loro attività primarie, ma consentono anche di rispondere ai bisogni infrastrutturali secondo necessità. Il fornitore, o per meglio dire il partner, è in grado di offrire infatti un modello di servizio flessibile, che consente di determinare il livello di servizio di cui l’azienda ha effettivamente bisogno, adeguandolo in base alle necessità. Ma non è ancora tutto. Nuove tecnologie possono significare anche nuovi problemi: problemi per i quali il team IT esistente potrebbe non avere le conoscenze o esperienza sufficiente per risolverli. E non sempre l’inserimento di nuove risorse in azienda rappresenta una scelta sostenibile, soprattutto nel caso di piccole e medie imprese. Uno dei principali vantaggi del modello managed services è che consente di assumere virtualmente un intero team di professionisti IT a una tariffa mensile fissa, team dei quali possono fare parte consulenti tecnici, funzionali, specialisti in ambito architetturale e infrastrutturale, formatori, che possono supportare le imprese sia mantenere attiva e funzionante l’infrastruttura IT, ma ancor di più a sbloccarne il pieno potenziale a beneficio del business. L’aspetto dei costi è sicuramente uno dei primi aspetti che guida le imprese verso i managed services. I vantaggi del poter ridurre i costi di assunzione e formazione di nuovo personale IT e ancor di più di disporre di competenze disponibili su base scalabile sono evidenti. Firmare un accordo su un livello di servizio adeguato alle esigenze specifiche della propria organizzazione significa non doversi preoccupare di costi di servizio imprevisti e poter [...]

I primi esempi di blockchain IBM in Italia confermano un ruolo da protagonista per i partner

Come due genitori che a cena parlano solo del loro primogenito, durante gli ultimi Think - appuntamenti di riferimento per IBM, i suoi partner e i suoi clienti - si sono viste foto di presentazioni sulla blockchain, loghi di clienti italiani che usano la blockchain, selfie con esperti della blockchain, hashtag e infografiche a tema. Ed è legittimo, perché la blockchain in Italia, ma anche nel mondo, è un neonato. Ma è un figlio che promette veramente bene, non solo per IBM ma anche per i suoi parenti acquisiti, i partner. IBM ha una precisa offerta blockchain, nato sulle basi del progetto Hyperledger creato dalla Linux Foundation già nel 2015. Ha tutto quello che serve, infrastruttura hardware, piattaforma software e servizi a corredo. Ora bisogna solo proporla ai clienti. Per questo è utile dare visibilità ai cosiddetti progetti pilota dei pionieri italiani, i clienti che per primi hanno dato fiducia alla tecnologia e a IBM. È il caso di Barilla e del suo pesto, raccontato in questo video in cui si spiega la struttura del progetto, ma anche il valore che l’adozione della blockchain porta a clienti, fornitori e partner. Blockchain, portatrice sana di qualità e fiducia In estrema sintesi, una piattaforma blockchain permette di controllare e validare digitalmente tutte le fasi di un processo, dalla produzione alla distribuzione. La piattaforma è implementabile pressoché in qualsiasi contesto, anche se alcuni, come il food e il finance, in questo momento possono essere più sensibili alla sua introduzione. È comprensibile come il controllo e la certificazione dell’intero processo di filiera possa godere di immensi benefici dall’introduzione di una blockchain. Dal monitoraggio e dalla raccolta degli elementi primari, come il basilico nel pesto, fino al trasporto e l’acquisizione della materia prima da parte del brand, il controllo qualità, la lavorazione con altri ingredienti e il confezionamento, tutto è monitorabile e certificabile. Nell’arco di tutta la filiera, il brand è in grado di monitorare, controllare e validare tutto il processo, indipendentemente dal numero e dalla dislocazione di tutti gli elementi coinvolti, garantendo un elemento di qualità ai suoi consumatori estremamente differenziante. Con la blockchain il brand potrà godere degli enormi effetti benefici in termini di marketing e quindi di percezione, fiducia e fidelizzazione da parte dei propri clienti. I benefici della blockchain sono per tutti Ma gli effetti benefici della blockchain non riguardano solo il cliente. Anche il partner qualificato che ha lavorato sul progetto insieme a IBM ne godrà. Come abbiamo detto, la blockchain si sviluppa attraverso tre ambiti specifici: infrastruttura, software e servizi. E, se l’infrastruttura e il software sono a carico del fornitore della soluzione, in questo caso IBM, il partner ancora una volta ha l’incarico di fare la differenza nell’ambito dei servizi. Il ruolo del partner in un progetto di blockchain è di implementare un’offerta di servizi competente e coerente capace di generare un processo realmente abilitante all’innovazione. Come un neonato, anche la blockchain ha di fronte una evoluzione, ma i tratti somatici sono già percepibili. Cosa fa il partner in [...]

Gestire i Big Data si può, se hai lo storage giusto

Secondo uno studio recente di Persistence Market Research il mercato dello storage per i Big Data passerebbe in dieci anni dai circa 10 milioni di dollari del 2016 all’incredibile valore di 60 miliardi di dollari nel 2026. Un incremento anno su anno del 20,4% che neanche negli anni ’90, ai tempi d’oro dell’Informatica. Ciò significa una cosa sola, in qualsiasi regione geografica e per qualsiasi tipo di azienda in qualsiasi settore, il focus sulla gestione dei dati, componente fondamentale della Digital Transformation, richiede una revisione degli apparati in cui questi dati sono raccolti e archiviati. Sempre secondo la ricerca, infatti, la componente hardware pesa per quasi la metà (49,1%) del totale del valore del mercato dello storage per i Big Data. La necessità della revisione dell’infrastruttura di storage per le aziende deriva anche dalle richieste della cosiddetta compliance, ovvero le regolamentazioni che nel corso degli ultimi anni hanno posto come obiettivo la tutela della privacy e del dato in generale. Il GDPR europeo ne è il classico esempio. Rivedere lo storage che si ha in casa è fondamentale per tutelarsi dalle richieste delle normative di trattamento dei dati come il GDPR. Un’azienda oggi non può permettersi di pagare per l’incuria con cui gestisce i propri dati e quelli dei loro clienti: deve garantirne la tutela e la sicurezza, anche e soprattutto quando questi dati sono frutto di interscambi digitali tra fornitori, intermediari e clienti nella catena del valore. I dati utili a un’azienda crescono esponenzialmente In questo contesto è ormai ben evidente che non si può prescindere da tecnologie affidabili, sicure e ad accesso veloce come le tecnologie Flash. In quest’ambito è ben nota la leadership di IBM nel settore, ma lo stesso produttore non si culla negli allori e prosegue nello sviluppo della sua roadmap tecnologica, per esempio con i recenti FlashSystem 9100. Parlando di Big Data, inoltre, è fondamentale concentrarsi sull’elaborazione dei dati raccolti. L’archiviazione dai software legacy e la raccolta dei cosiddetti Alternative Data, ormai ritenuti fondamentali tanto quanto gli “ordinari”, richiede, come detto, un certo tipo di hardware. Ma, allo stesso modo, certe tecnologie come quelle dei sistemi Flash, diventano rilevanti anche nella elaborazione dei dati. Quindi, raccolta ed elaborazione. Ma, quando si parla di elaborazione, si tende a pensare alle capacità di calcolo dei sistemi hardware ma non abbastanza alle prestazioni dello storage. In un contesto più ampio, parlando di Intelligenza Artificiale, negli ultimi anni ci sono state delle evidenze che devono far riflettere. L’incremento delle prestazioni in ambito Deep Learning e processori grafici è stato eccezionale. Nello storage non tutti i vendor si sono adeguati alle nuove esigenze. Un sistema di Intelligenza Artificiale ha bisogno di tre asset fondamentali: il deep learning, le GPU (Graphic Processing Unit) e i Big Data. Ebbene, si pensi che in appena due anni gli algoritmi di deep learning hanno migliorato la loro efficacia di un fattore 15. Mentre, le GPU sono cresciute di 10 volte in termini di capacità di elaborazione. Big Data: anche lo storage deve [...]

Un’immagine vale più di mille parole, se l’hai elaborata con i sistemi giusti

Parlando di tecnologie di Image Detection, è proprio il caso di dire che un’immagine vale più di mille parole. I campi di applicazione delle tecnologie di analisi delle immagini sono numerosi e probabilmente siamo ancora alla punta dell’iceberg. IBM, con l’introduzione alcuni anni fa della piattaforma IBM PowerAI Vision, ha già posizionato una saldissima bandierina nel mercato, dimostrando ancora una volta di vederci lungo. IBM PowerAI Vision è utilizzato con successo anche in Italia ma la delicatezza dei progetti spesso ne impedisce la divulgazione. Il concetto alla base dell’Image Detection è molto semplice: acquisire informazioni grazie all’analisi delle immagini. Su YouTube si trovano diversi esempi di applicazione della tecnologia IBM PowerAI Vision. Con PowerAI Vision introdotto qualche anno fa, IBM ha dimostrato ancora una volta di vederci lungo e ha già qualche caso notevole di applicazione della tecnologia. L’Image Detection si può utilizzare per il monitoraggio del traffico nelle strade, per quello del flusso di clienti in un centro commerciale o in un qualsiasi altro luogo per fini di sicurezza, ma anche per verificare che il posizionamento della merce sia corretto rispetto al target che affolla un negozio. Dalle analisi microscopiche delle molecole in ambito farmaceutico si studiano nuovi preparati, e dal monitoraggio del comportamento di insetti e animali semplicemente filmandoli, si possono ottenere informazioni per predire, per esempio, le epidemie. Che ci vuole, in fondo? Basta una fotocamera, una videocamera o un microscopio, e il costo di una tecnologia che sfrutta l’Image Detection risulta contenuto. Il Deep Learning richiede grande potenza di elaborazione In verità non è esattamente così. È certamente vero che i dispositivi di acquisizione si possono adattare alle nuove richieste a un costo abbastanza contenuto. Ma è altrettanto vero che un sistema di Image Detection potente deve avere alle spalle una piattaforma hardware e software adeguata. Anche in questo caso entra in gioco l’Intelligenza Artificiale. In particolare, siamo nel campo del Deep Learning, ovvero all’interno del Cognitive – quando le macchine sviluppano un’intelligenza simile a quella umana – e del Machine Learning – quando gli algoritmi prevedono i comportamenti futuri sulla base dell’analisi dei dati. Il Deep Learning sfrutta un modello di rete neuronale per imparare dall’esperienza, fornita dai dati, e svolgere attività in base a ciò che ha imparato. Per realizzare qualcosa che, sulla base delle nostre reti neuronali, elabori meglio di un essere umano, è necessario un hardware di livello. Attraverso il Deep Learning si elaborano miliardi di informazioni al secondo, una capacità impossibile per il cervello umano. Si tratta di acquisire miliardi di dati attraverso immagini e video, perché su questi formati si raccolgono molti più dati rispetto ai formati testuali, e di eseguire migliaia di miliardi di operazioni al secondo. Insomma, l’hardware è importante. L’importanza di una partnership di livello Per questo IBM ha stretto a suo tempo una partnership con Nvidia, produttore di chip grafici di altissimo livello. E non ha solo integrato nei suoi server PowerAI i processori grafici, le GPU, di Nvidia ma ha realizzato una tecnologia di [...]

Requiem per il disco rigido, grazie di tutto ma è ora dell’SSD

Sai qual è stato il primo disco rigido introdotto sul mercato? Era il 13 settembre 1956 e IBM inserì tra le componenti del suo IBM 305 RAMAC il disco fisso a testina magnetica. Il calcolatore, uno degli ultimi a valvole costruiti da IBM, pesava una tonnellata e conteneva fino a 350 dischi fissi di tipo 350 Disk Storage Unit, ognuno dei quali era formato da cinquanta dischi da 24 pollici. Il prezzo? 3.200 dollari di allora, equivalenti a circa 30mila dollari di oggi, al mese. E la capacità di ogni unità era, udite udite, ben 5 megabyte. Sono passati 62 anni ed è ora di pensionare il caro vecchio disco fisso, ovvero la tecnologia a testina magnetica, basilare in ogni dispositivo elettronico, grande o piccolo che sia, in cui era necessario memorizzare qualcosa. In tempi “non sospetti” IBM vendette la divisione storage a Hitachi Data System nel 2003 ma non abbandonò il mercato della memorizzazione di massa. Anzi, guardò avanti alle memorie allo stato solido, le SSD, diventando uno dei leader di mercato. L’anno scorso è stato l’anno del sorpasso in ambito consumer, ovvero i computer portatili con la memoria di tipo SSD hanno superato quelli con il disco fisso. Il sorpasso di SSD su HD arriverà anche nei data center? Ok, il sorpasso è avvenuto nei Personal Computer mentre gli HD continuano a dominare nei server e nelle appliance di storage presenti nei data center, o no? In verità, Gartner predice che entro il 2021 il 50% dei data center useranno memorie compatibili con la tecnologia SSA (Solid State Array), rispetto al 10% attuale. Insomma, la transizione verso i dischi a stato solido è iniziata, anche nei data center. Entro il 2021 la metà dei data center nel mondo userà memorie allo stato solido. Ci sono diversi motivi per cui sarebbe il caso di pensionare i vecchi dischi magnetici. L’affidabilità, i tempi di accesso ai dischi e lo spazio ridotto sono i primi tre e ora anche il costo non è più una discriminante. Infine, lo sostiene un report di Forrester, gli SSD fanno risparmiare soldi. Lo studio ha dimostrato un risparmio di decine di migliaia di dollari all’anno in costi di energia. Sì, ma a noi che ci importa? Tu, azienda cliente, che memorizzi i tuoi dati in un cloud, di che ti preoccupi? L’importante è che i tuoi dati siano al sicuro, poi se sono archiviati su un disco fisso tradizionale o un SSD, che importa? Beh, un pochino ti dovrebbe importare. Intanto, se hai scelto di passare a un cloud ibrido, sarebbe importante che il fornitore dei servizi IaaS ti garantisse un accesso ai dati veloce e sicuro, dunque accertati, attraverso il tuo partner, delle velocità di accesso ai dati. E, se una parte dei tuoi archivi risiede in un cloud privato, o addirittura on premise, ovvero nei server di tua proprietà, dovresti farti due domande. Che tecnologia di storage usano i tuoi server? Quanto sono datati? E qui entra il gioco il valore consulenziale [...]

Il Software Defined Storage per una gestione degli archivi funzionale e proattiva per il business aziendale

Il Software Defined Storage è ormai tecnologia riconosciuta. Sono lontani i tempi in cui la capacità e le funzionalità di allocazione e gestione dello storage erano intimamente correlate all’hardware. Oggi non importa dove risiedano fisicamente gli archivi delle aziende, grazie alle soluzioni di virtualizzazione e a quelle di SDS come la suite IBM Spectrum Storage, lo storage è totalmente indipendente dalla posizione dell’hardware. In questo modo, le soluzioni di gestione permettono di allocare le risorse e muovere lo storage in maniera dinamica, producendo risposte rapide e virtuose sia nel caso di incremento delle richieste che in presenza di politiche di backup e disaster recovery. Il Software Defined Storage permette risposte rapide e virtuose in caso di incremento delle richieste di spazio e di attuazione di politiche di disaster recovery. Per gestire il tuo storage scegli il leader IBM è da tempo riconosciuta come vendor leader in ambito Software Defined Storage, settore in cui si propone attraverso otto componenti distinte della sua Spectrum Storage Suite, tutte pensate per la gestione storage in ambienti hybrid cloud. Si va dalla componente fondamentale di storage virtualization a quelle più specifiche per la data protection, la gestione analitica dei dati o quella pensata per aggregare i dati non strutturati, particolarmente d’attualità vista la sempre più crescente importanza di monitorare dati provenienti da fonti molto eterogenee. I motivi per cui la suite di IBM continua a essere riconosciuta come una delle più valide sul mercato riguardano la flessibilità, l’ampia scelta di funzionalità, il supporto per tutti gli standard di mercato, la facilità di gestione, la velocità e la garanzia di un monitoraggio continuo sul flusso di dati. La tecnologia SDS non dimostra solo interessanti vantaggi nella gestione virtuale dello storage ma permette l’esplorazione di nuovi ambiti applicativi. Uno riguarda certamente l’Intelligenza Artificiale, ovvero l’analisi delle informazioni archiviate con obiettivi di predittività e analisi dati. E, a questo proposito, la componente relativa della suite, IBM Spectrum AI, si è avvalsa recentemente dell’integrazione della piattaforma hardware Nvidia DGX, orientata appositamente all’approccio Deep Learning. Ma c’è un altro versante applicativo che si sta facendo largo grazie ai vantaggi dell’approccio Software Defined Storage. Definita come “data reuse”, che potremmo tradurre in “riciclo dei dati”, è facilmente comprensibile ai più. Con il Data Reuse, i dati più vecchi diventano fondamentali in una strategia di Data Intelligence finalizzata a migliorare le azioni di business. Secondo questo approccio, infatti, i dati archiviati non assumono solo un valore estemporaneo legato a esigenze di disaster recovery, ma diventano strategici, se elaborati in modo corretto, per costruire una solida base per le tecniche di machine e deep learning. Ma utilizzare dataset “vecchi” è possibile solo se la piattaforma di storage è assolutamente indipendente dalla loro localizzazione fisica, dunque esattamente secondo l’approccio SDS, e se si hanno a disposizione capacità computazionale e funzionalità estremamente potenti di virtualizzazione. A che serve il partner IBM? Ancora una volta, dobbiamo puntualizzare che ogni azienda ha le sue esigenze di storage, il proprio budget e i propri obiettivi di crescita. [...]

Come evolvono le soluzioni per la protezione agli endpoint aziendali

Parafrasando Roberto Benigni e il suo Johnny Stecchino, il problema della security aziendale non è (solo) il traffico ma (soprattutto) gli autisti. È ben noto, infatti, che i danni più gravi a una infrastruttura IT aziendale sono provocati dai dipendenti più che da esterni. Si basa su questo il nuovo approccio “predictive security” per cui l’obiettivo è prevedere la natura del prossimo attacco, piuttosto che difendersi quando già è in atto o proteggersi da tipologie di attacchi che in 24 ore sono già stati sostituiti da qualcosa di più efficace. Succede, così, che il valore di mercato dell’End Point Protection, ovvero i software che si occupano di difendere gli endpoint (server, workstation e device mobili) usati per connettersi alla rete aziendale, è in costante incremento. Considerando solo questo tipo di soluzioni di sicurezza, parliamo di quasi 6 miliardi di dollari nel 2018 (fonte Global Market Insights) destinati ad arrivare a 7,5 entro il 2024. E succede che dal chiamarle soluzioni EPP (EndPoint Protection) si passi a EDR (Endpoint Detection and Response) perché il precedente approccio non è più sufficiente. Se, infatti, le EPP sono focalizzate esclusivamente nella protezione dell’endpoint, l’evoluzione EDR ci aggiunge il controllo della rete. Una console unificata per monitorare la sicurezza L’EDR, infatti, in aggiunta a un tool EPP o all’interno di una soluzione integrata, si occupa di monitorare in tempo reale la rete aziendale, concentrandosi sull’analisi dei dati e sulla risposta fornita dall’architettura a seguito dell’incidente occorso all’endpoint aziendale. In questo modo, l’architettura di sicurezza si avvale di una console unificata e di uno strumento di analisi in real time degli attacchi e, grazie al machine learning, rende la difesa predittiva. IBM BigFix, da anni leader tra i software dedicati all’Endpoint Protection, si è rapidamente evoluto alle esigenze del mercato aggiornandosi fino a presentarsi come una Collaborative Endpoint Management and Security Platform. IBM BigFix, ha l’obiettivo di colmare il gap di comunicazione tra i vari tool di sicurezza attraverso l’integrazione e la cooperazione. Il termine fondamentale della definizione è Collaborative: la soluzione di IBM, infatti, ha l’obiettivo di colmare il gap di comunicazione tra i vari tool di sicurezza attraverso l’integrazione e la cooperazione. Quando entra il gioco la parola “integrazione”, anche un partner qualificato IBM come Uno Informatica gioca un ruolo fondamentale. Infatti, integrare i vari tool in modo da gestirli attraverso una console unificata è il valore aggiunto del partner. Non tutte le aziende hanno le competenze e le risorse interne per procedere al necessario lavoro di integrazione e, per questo, è consigliabile affidarsi a chi può fare questo lavoro per loro conto. Ogni azienda è diversa, ha esigenze diverse e tool diversi e solo una precisa attività di assessment iniziale che faccia il punto della situazione, insieme al lavoro di integrazione e alla successiva modulazione di IBM BigFix può garantire i risultati promessi. La formazione al dipendente prima di tutto A questa attività, però, è consigliabile accostarne un’altra. Secondo Gartner, il mercato del Security Awareness Training ha superato da tempo il valore [...]

Gli IBM Power System basati su Power9 introducono innovazione proteggendo l’investimento

Qual è il supercomputer più potente in circolazione? Si chiama Summit ed è stato sviluppato da IBM per conto dell’Oak Ridge National Laboratory (Oak Ridge, Tennessee, USA), il più grande laboratorio di scienza ed energia del Dipartimento dell’Energia americano. Summit ospita applicazioni basate sull’Intelligenza Artificiale (reti neurali, machine learning) ed è basato sull’ultima CPU IBM Power9 e su processori grafici (GPU) Nvidia Volta V100. E, guarda un po’, anche il secondo in classifica, che si chiama Sierra, è basato su CPU IBM Power9. A un anno dalla loro introduzione, dunque, i processori di ultima generazione di IBM si dimostrano l’eccellenza, soprattutto per le applicazioni aziendali moderne che sfruttano algoritmi di intelligenza artificiale necessari a processare quantità di dati sempre più grandi. Un rinnovo di tecnologia “epocale” L’introduzione degli IBM Power9, e dei server basati su quelle architetture (i Power Systems AC922), non è un avvenimento frequente. Un rinnovo di tecnologia di questa importanza, infatti, avviene mediamente ogni 3-4 anni. La novità – è importante specificarlo – non preclude a futuri malanni di vecchi e nuovi clienti IBM poiché l’azienda americana insiste nell’aggiungere potenza di elaborazione garantendo allo stesso tempo la protezione dell’investimento e un TCO (Total Cost of Ownership) estremamente concorrenziale. I nuovi IBM Power System garantiscono la compatibilità con le applicazioni precedenti. Si protegge l’investimento nell’hardware ma, soprattutto, nel software, garantendone il funzionamento, nelle competenze tecniche richieste e nei modelli consolidati di organizzazione aziendale. Mal di testa scongiurati, insomma, ancora una volta. Grazie ai programmi di sostituzione di IBM, infatti, i clienti Power Systems potranno godere delle nuove performance senza saccheggiare troppo il budget IT, potranno continuare a usare le loro applicazioni e potranno contare su sistemi realmente “open”, ovvero aperti agli standard di mercato e ai prodotti Open Source. I Power9 sono anche per le PMI Ma l’architettura Power9 non è indirizzata solo alle grandi aziende con grandi esigenze e tanto budget. Anche l’ultima generazione di IBM Power Systems gode dei benefici della nuova architettura, permettendo così anche alle PMI italiane di gestire a costi contenuti le migliori soluzioni applicative sul mercato. Già, perché gli IBM Power System non arrivano “vuoti” presso il cliente, ma già pronti per supportare le necessità applicative aziendali. Poiché ogni azienda opera in un certo mercato, ha un diverso passato, diverse esigenze e diverse prospettive per il futuro, è fondamentale che la scelta delle configurazioni più opportune sia indirizzata dal business partner IBM. Ogni azienda è diversa, solo un Business Partner qualificato ne può comprendere le esigenze specifiche. Solo un operatore che vive ogni giorno a stretto contatto con i clienti e che conosce le necessità degli specifici mercati può capire quale sia la configurazione hardware e software più opportuna. E solo le sue risorse certificate possono coadiuvare il team informatico per personalizzare le configurazioni. CONTATTA UN ESPERTO

Ampliare la partnership con un cliente partendo da un progetto di backup e disaster recovery

Questa è la storia di un progetto di Backup e di Disaster Recovery dal lietissimo fine: la massima soddisfazione del cliente. Al punto da consolidare la partnership con ulteriori progetti in divenire. Siamo di fronte a un gruppo leader nel settore del Fashion, eccellenza del Made in Italy nel mondo, con presenza in diversi mercati esteri. Si parla di 20 milioni di capi confezionati e 50 milioni di metri stampati di tessuto all’anno, e di una distribuzione su un migliaio di punti vendita monomarca nel mondo. Sistemi distribuiti e disomogenei Il cliente ha l’esigenza di consolidare la propria infrastruttura IT e raggiungere la massima efficienza nel backup e nel restore dei dati presenti in diversi sistemi distribuiti nella sede centrale, in un data center remoto in outsourcing, in 5 sedi locali e in tre sedi estere. Si tratta di un flusso di circa 15 terabyte di dati su una rete da 100 Mbit, da deduplicare e comprimere. Il tutto in presenza di un hardware variegato e disomogeneo. I dati sono consolidati sui server della sede centrale, in cui si effettua un backup in locale e un’archiviazione mista su disco e su nastro da cui attingere per un eventuale restore. inoltre, è prevista una replica sullo spazio in outsourcing disponibile ad alcune centinaia di chilometri di distanza. Fase uno: dall’analisi all’ottimizzazione del software La prima fase si è aperta con una analisi fondamentale dello status quo delle infrastrutture e del software di gestione del backup e del disaster recovery, del computo del volume dei dati da gestire e dell ricostruzione del percorso degli stessi. Uno Informatica ha utilizzato i suoi strumenti di analisi predittiva, per fornire al cliente una mappatura precisa della situazione allo stato attuale, una previsione dell’incremento delle prestazioni e una simulazione della reazione ad eventuali stati di emergenza. il Proof of Concept non ha previsto alcuna sostituzione delle piattaforme hardware. Prima regola: rispettare il ROI sull’hardware. È possibile se si usa il software di gestione storage giusto. Si è venuto incontro, così, alle esigenze del cliente di rispettare il ROI relativo all’hardware ma, allo stesso tempo, si è garantito un notevole incremento delle prestazioni in termini di velocità e clusterizzazione della mole di dati da archiviare. Con grande soddisfazione del cliente, il software di gestione IBM Tivoli Storage Manager (TSM) che si pensava ormai inadeguato, è stato valorizzato dagli specialisti di Uno Informatica grazie a un attento lavoro di riconfigurazione. L’attività, inoltre, ha portato a un incremento dello storage da gestire con lo stesso TSM e all’acquisto di nuove licenze di una ulteriore piattaforma di gestione integrata dello storage. Fase due: quando si raggiunge, hai conquistato il cliente In circa 4 mesi, la prima fase del progetto di Backup e Disaster Recovery realizzato da Uno Informatica per un’importante realtà del fashion è stata conclusa. Oltre a ottimizzare l’utilizzo di IBM Tivoli Storage Management sono stati implementati nuovi servizi di scripting e di monitoring per agevolare la gestione dello storage e contribuire a velocizzare il go-to-market dell’azienda cliente. Un [...]

Come affrontare i rischi di sicurezza dell’IoT con QRadar e Watson

Come se non bastasse, al dipendente, il principale incubo per la sicurezza IT di un’azienda, si aggiungeranno presto i dispostivi IoT. I responsabili della sicurezza dovranno così mettere in conto, oltre alla superficialità dei comportamenti umani, la fragilità delle architetture IoT. L’integrazione nella rete aziendale dei numerosi dispositivi di cui spesso non si può garantire la sicurezza perché magari non se ne ha il controllo diretto, è certamente il pericolo pubblico numero uno che i CIO (Chief Information Officer) dovranno affrontare nel prossimo futuro. L’approccio al problema è totalmente nuovo. Un dispositivo IoT viene integrato all’interno della rete aziendale, diventando un endpoint a tutti gli effetti e, nella maggioranza dei casi, non è protetto da un livello di sicurezza equivalente a quello che un CIO può garantire agli altri terminali. Inoltre, può succedere, per esempio in un ambito Smart Fabric, che lo stesso dispositivo sia connesso a reti di diverse aziende e che la sua gestione non sia di propria competenza. Gartner si aspetta che più del 65% delle aziende entro il 2020 gestirà dispositivi IoT. Come fare a garantire l’aderenza alle normative sulla privacy? Il dispositivo IoT, in fondo, è un terminale da cui partono e arrivano dati e informazioni che, nella migliore delle ipotesi, sono protetti da standard di sicurezza classici di una rete come, per esempio, la crittografia. Le informazioni raccolte, inoltre, possono comprendere dati personali di cui, a causa delle normative sulla privacy come il GDPR, l’azienda è pienamente responsabile. È evidente, insomma, che i dispositivi IoT portino in eredità un’insicurezza intrinseca e nuovi livelli di incertezza. Non è un caso, infatti, che la sicurezza delle infrastrutture IoT sia la maggior preoccupazione degli esperti nei prossimi anni. Come garantire l’aderenza al GDPR della raccolta dei dati nel perimetro di una Smart City, per esempio dalle videocamere? Una soluzione integrata di monitoraggio e previsione IBM cerca di mettere una pezza al problema proponendo un’integrazione decisamente interessante. All’interno della soluzione IBM QRadar Security Analytics Platform, leader riconosciuta nel settore, il vendor ha integrato le funzionalità cognitive della piattaforma Watson pensate proprio per ambienti IoT. Così, si propone attraverso i partner la soluzione Watson for Cyber Security che ha l’obiettivo di rilevare le minacce nascoste e automatizzare gli insight grazie all’analisi dei dati non strutturati. Si tratta dell’approccio attualmente riconosciuto come il più efficace per anticipare eventuali attacchi. Si “ascolta” la rete per prevedere cosa potrà succedere e si fa affidamento sulla capacità di machine learning e di elaborazione di QRadar. Attraverso il nuovo approccio, IBM garantisce maggiore intelligenza, grazie all’interpretazione delle informazioni su un nuovo rischio che circolano in rete. Ma anche maggiore velocità di risposta e maggiore precisione, grazie alle capacità del motore di Watson e di QRadar. Anche in questo caso, infine, l’apporto del system integrator specializzato sarà determinante per comprendere le vulnerabilità di ogni singola architettura e tarare la soluzione IBM per ottenere i risultati aspettati. SCOPRI DI PIÙ SULLE SOLUZIONI DI SICUREZZA CONTATTACI PER UNA CONSULENZA

Torna in cima