Circa Uno Informatica

Questo autore non ha riempito alcun dettaglio.
Finora Uno Informatica ha creato 43 post nel blog.

Webinar Dati strutturati e Image Recognition, AI: la nuova frontiera dell’impresa intelligente

In questo webinar, insieme a un nutrito panel di esperti e a testimonianze di casi reali, scopriremo come attraverso le reti neurali si estraggano dai dati nuove informazioni di valore per l’azienda intelligente. Come dare valore esponenziale all’unione di Dati Strutturati e immagini con l’Intelligenza Artificiale? Ce lo racconterà Cassa Compensazione e Garanzia che grazie all'implementazione di soluzioni ad hoc ha avuto nuove prospettive e opportunità. Intervengono:  Massimo Zanardini, partner di IQ Consulting e membro del Laboratorio Research and Innovation for Smart Enterprises (RISE) Duccio Manganelli, Sales Manager di UNO Informatica Chiara Carrera, Power Solutions Leader di IBM Italia Mauro Madeddu, Senior Application Development Di Cassa Compensazione e Garanzia Daniel Campo, Senior Enterprise Account Executive di H2O.ai Modera: Maria Teresa della Mura, Direttore Responsabile di Internet4things Iscriviti Adesso

Internet of Medical Things: nuova frontiera della medicina ma anche della sicurezza

Anche nel mondo sanitario stiamo assistendo a una vera e propria proliferazione di dispositivi connessi, progettati per migliorare l'efficienza, ridurre i costi di assistenza e ottenere risultati migliori nell’ambito della cura e dell’assistenza ai pazienti. Non è dunque un caso che sempre più spesso si parli di Internet of Medical Things, IoMT. Grazie alla loro capacità di raccogliere, analizzare e trasmettere dati sanitari, gli strumenti IoMT già svolgono un ruolo centrale nel monitoraggio e nella prevenzione delle malattie croniche. Ma come funziona esattamente questo ecosistema connesso? E qual è la vera differenza tra Internet of Things e IoMT? Cos'è l'IoMT? L'IoMT è un'infrastruttura connessa di dispositivi medici, applicazioni software e sistemi e servizi sanitari. Non diversamente da quanto accade in altri settori, nei quali l’Internet of Things si sta diffondendo, anche in questo caso stiamo parlando di strumenti basati su sensori, inclusi dispositivi indossabili e autonomi per il monitoraggio remoto dei pazienti. Ma è l'unione di dispositivi medici connessi a Internet con le informazioni raccolte sui pazienti che dà realmente vita all'ecosistema IoMT. Secondo Deloitte, che già due anni fa aveva analizzato il fenomeno, l'ascesa dell'IoMT è guidata da un aumento del numero di dispositivi medici connessi che sono in grado di generare, raccogliere, analizzare o trasmettere dati o immagini sanitari e connettersi alle reti di operatori sanitari, trasmettendo i dati a un repository cloud o a server interni. In definitiva, la connessione e l’integrazione tra dispositivi medici e sensori sta snellendo la gestione del flusso di lavoro clinico, portando a un miglioramento complessivo nella cura del paziente, sia all'interno delle mura della struttura sanitaria sia al di fuori di essa, nel caso di terapie domiciliari. Il potenziale dell'IoMT in ambito sanitario Le capacità dell'IoMT sono diagnosi più accurate, meno errori e minori costi di assistenza. Associata alle applicazioni per smartphone, la tecnologia consente ai pazienti di inviare le proprie informazioni sanitarie ai medici per monitorare meglio le malattie croniche o i percorsi riabilitativi a domicilio. Non si tratta necessariamente di apparati sofisticati o particolarmente costosi: la casistica medica ha evidenziato ad esempio come già alcune funzioni di un normale fitness tracker, come la misurazione della frequenza cardiaca e l’accelerometro, se messi in correlazione possono servire per una migliore valutazione dello stato di salute dei pazienti affetti da patologie come la cardiopatia ischemica. I benefici sono molteplici: l’utilizzo dell’Internet of Medical Things non solo aiuta a migliorare l'esperienza del paziente riducendo il numero di visite mediche e controlli da effettuare di persona, con un impatto positivo per i pazienti che vivono in zone rurali o comunque distanti dal centro che li ha in cura, ma aiuta anche a ridurre i costi. Analisti come Goldman Sachs si dichiarano convinti che dall’IoMT deriveranno significativi risparmi per il settore sanitario, grazie sia a un più efficiente monotoraggio dei pazienti, sia grazie a prescrizioni farmacologiche più precise. Tra le declinazioni più interessanti dell’IoMT sicuramente vale la pena citare le cosiddette "pillole intelligenti" dotate di sensori microscopici, che, una volta somministrate ai [...]

5 Motivi per cui il capacity planning è essenziale per il tuo business

Sommario: Il capacity planning rende possibile calibrare le risorse IT in funzione del loro livello di utilizzo, garantendo così alle aziende la massima operatività. La fase storica che ci troviamo a vivere è duplice: da una parte, l’effetto della pandemia da Covid-19 è stato quello di una maggiore domanda di digitalizzazione, che inevitabilmente si accompagna a uno sfruttamento più intenso delle risorse IT. D’altra parte, però, le imprese sono nel bel mezzo di una grave crisi economica, che aumenta i livelli di incertezza e mette sotto pressione i modelli di business. Difficile che, in un contesto di questo tipo, i reparti IT aziendali abbiano carta bianca per procedere ad acquisti e investimenti. Piuttosto, la richiesta sarà quella di accompagnare questo necessario passaggio al digitale con un contenimento dei costi IT. A cosa serve il Capacity Planning Come si possono far convergere queste due tendenze in apparenza inconciliabili? Per le imprese diventa fondamentale organizzare un adeguato capacity planning delle proprie risorse infrastrutturali (storage in particolare). Concretamente questo significa gestire le risorse IT a disposizione – sia quelle ospitate nei data center proprietari che quelle in cloud – per far sì che le applicazioni utilizzate dispongano sempre della necessaria capacità per funzionare correttamente, anche in prospettiva futura, così da assicurare la scalabilità. Ma come si può mettere in atto un capacity planning adeguato? Anche per i team IT può risultare complesso comprendere l’effettivo grado di utilizzo delle risorse e, soprattutto, prevederne l’evoluzione futura, che potrebbe essere anche dissimile rispetto alle traiettorie riscontrate nel passato. L’intelligenza artificiale come supporto Sempre più spesso, dunque, il capacity planning sta passando per l’utilizzo di soluzioni di intelligenza artificiale, ovvero di algoritmi capaci di analizzare lo stato della capacità e prevedere - con un elevato tasso di affidabilità – i possibili problemi che potrebbero presentarsi. Non a caso Gartner prevede un progressivo successo delle piattaforme definite come AIOps (Algorithmic IT Operations), ovvero sistemi che combinano la raccolta dati e le fasi successive di memorizzazione, analisi e visualizzazione, capaci di dialogare oltre che con i normali strumenti IT con qualunque tipo di applicazione. I 5 benefici del Capacity Planning per il business Ma quali sono i cinque principali benefici per il business derivanti dalla corretta implementazione di un IT capacity planning? Eccoli di seguito Maggiore equilibrio tra costi e capacità: Un adeguato capacity planning delle risorse IT può garantire che le capacità di elaborazione soddisfino i requisiti aziendali a costi giustificabili e siano utilizzate nel modo più efficiente possibile. Evitando quindi errori di sovradimensionamento – ovvero una capacità infrastrutturale eccessiva rispetto al grado e al livello di utilizzo da parte degli utenti – o peggio ancora di sottodimensionamento, che può causare notevoli problemi operativi. Riduzione delle spese e degli acquisti non pianificati: proprio per evitare il rischio del sottodimensionamento la maggior parte dei reparti IT tende a sovrastimare le esigenze delle proprie aziende, comportando così una spesa eccessiva, che magari potrebbe essere destinata ad altre attività. Nel caso contrario, invece, l’assenza di una capacità adeguata [...]

BRT Corriere Espresso migliora le prestazioni del suo storage grazie al Capacity Planning e alle soluzioni di IBM

Grazie all’utilizzo degli algoritmi proprietari di Capacity Planning di Uno Informatica e dei tool e delle soluzioni IBM per lo storage, il system integrator toscano ha ridefinito l’intera infrastruttura di storage di BRT Corriere Espresso raggiungendo gli obiettivi di efficienza richiesti dal cliente. “BRT Corriere Espresso è una delle realtà italiane più importanti che con oltre 180 filiali fornisce servizi logistici di supporto alla movimentazione e alla distribuzione delle merci in Italia in Europa e nel mondo – afferma Matteo Grazi, IT Application Services Manager di BRT Spa. La complessità delle nostre operazioni richiede un sistema informatico evoluto che deve essere continuamente allineato alle moderne tecnologie”. Grazie all'intervento di Uno Informatica e alle soluzioni IBM per lo storage, BRT Corriere Espresso ha a disposizione la piattaforma più affidabile per la gestione delle operazioni tipiche del comparto. Ma come si è arrivati alla definizione del progetto? “Abbiamo inizialmente svolto un'analisi completa della infrastruttura IT di BRT Corriere Espresso – afferma Francesco Camorri, vicepresidente Uno Informatica – utilizzando la nostra soluzione di Capacity Planning per individuare le aree critiche dell’infrastruttura e fornire gli ambiti di miglioramento”. In questo modo, la virtualizzazione dello storage già esistente è stata consolidata tutelando il TCO e ne è stata aumentata l'affidabilità grazie al software IBM Spectrum Virtualize. Inoltre, è stato reso più efficiente lo spazio di storage con la possibilità di andare in Over-Provisioning. Ciò significa assegnare un’ulteriore percentuale della capacità totale di storage per tutelare la scalabilità delle esigenze aziendali. Il progetto è previsto l’introduzione di nuovi apparati IBM Flash System gestiti dagli IBM Spectrum Virtualize e IBM SAN Volume Controller, le soluzioni IBM specifiche per l’analisi e le proiezioni infrastrutturali per le aziende di fascia enterprise. I risultati non si sono fatti attendere: “è stata migliorata l'erogazione dei servizi aziendali – spiega Grazi - come la gestione dei dati in termini di volumi al secondo su storage IBM ad alta affidabilità e i processi di scambio dati con i nostri clienti, permettendoci di essere ancora più competitivi sul mercato”. Inoltre, sottolinea Camorri: “è stata anche potenziata la sicurezza in tutta l'infrastruttura a ulteriore garanzia per i clienti e per i servizi di BRT Corriere Espresso”. E, inoltre, si è lavorato per definire un piano di Disaster Recovery e garantire l'alta disponibilità dello storage”. Ancora una volta, infine, l’utilizzo degli strumenti statistici contenuti nella metodologia Capacity Planning di Uno Informatica ha permesso al system integrator di fornire quella marcia in più rispetto alla concorrenza, risultando più competitivi sia sul lato funzionale che su quello economico. SCOPRI DI PIÙ

Grazie a noi Estra risparmia il 50% del tempo, e tu che fai?

Uno Informatica ha aiutato Estra a ridurre del 50% i tempi dell’intero processo di fatturazione dei propri clienti. Un risultato eccezionale per una utility che distribuisce gas naturale ai clienti di quattro regioni (Abruzzo, Lazio, Toscana e Umbria) trasportando la risorsa lungo una direttrice di circa 5500 km e servendo 88 comuni. Estra si è rivolta a Uno Informatica per capire come aggiornare la propria infrastruttura amministrativa al fine di ridurre i tempi di rilascio delle fatture. L’azienda di Prato utilizza l’Erp SAP per tutti i processi di gestione amministrativa. Per preservare il più possibile l’infrastruttura e i processi e impattare in modo minore nelle abitudini delle risorse amministrative, Uno Informatica ha sfruttato la naturale integrazione tra l’Erp SAP e l’infrastruttura IBM Power Systems, piattaforma estremamente flessibile, che garantisce affidabilità, capacità di scalabilità, resilienza e robustezza. Le soluzioni IBM erano già di casa in Estra, per questo non è stato necessario descrivere a Pasquale Guigliotti, responsabile dei sistemi informativi di Estra, le caratteristiche positive delle soluzioni IBM, perché già toccate con mano. Piuttosto, Uno Informatica ha provveduto a fornire il proprio valore aggiunto, in qualità di IBM Platinum Business Partner, analizzando il modello preesistente e personalizzando l’offerta IBM per ottenere la resa migliore con un minimo impatto economico e sulle risorse. L’architettura proposta ed implementata per Estra ha compreso una soluzione IBM Power Systems e una IBM Storage. In particolare, si è provveduto a integrare nei tre preesistenti Storwize V7000 due nuovi FlashSystem 900 per garantire maggiori performance e uno Storwize V5000 per incrementare la capacità. Infine, si è provveduto a inserire uno switch IBM System Networking SAN Fiber Channel e il software IBM Spectrum Virtualize per l’allocazione dinamica delle risorse di storage in modo da incrementare le performance. Infine, Uno Informatica ha provveduto a installare un nuovo server IBM Power Systems S870 con sistema operativo Aix, da far lavorare in coppia all’IBM Power Systems preesistente su cui girava l'Erp SAP. Scarica l'infografica SCOPRI DI PIÙ

Uno Informatica diventa socio aderente di Nemetria

Uno Informatica ha aderito con entusiasmo al network di aziende, banche, enti e università di Nemetria, l’associazione senza fini di lucro specialista nell’organizzazione di seminari, workshop e convegni sui temi di economia, finanza, etica, cultura d’impresa e cultura in generale.Il carattere di attività legata a temi nazionali e internazionali coniugata con una forte attenzione al territorio, si sposa perfettamente con l’anima di Uno Informatica, partner tecnologico di riferimento per importanti rappresentanti dell’eccellenza italiana.La completa condivisione dei valori etici di Nemetria, insieme alla volontà di essere parte attiva nella realizzazione di incontri con leader del mondo economico, politico e accademico ha portato Uno Informatica ad aderire con entusiasmo alla proposta di associazione di Nemetria.Un’adesione che certamente contribuirà ad ampliare la visione di Uno Informatica sul panorama economico italiano e internazionale e che le permetterà di portare la propria conoscenza del mondo della tecnologia e dell’innovazione al servizio di tutto il network dei partecipanti all’associazione.“Le iniziative di Nemetria sono una piccola goccia di freschezza culturale in un mare di inquinamento ideologico”(Paolo Savona, presidente di Nemetria)

EVENTO ELETTRAWEB

L’USO INTELLIGENTE DELLA FATTURAZIONE ELETTRONICA PER CONTROLLARE I CONSUMI AZIENDALI 14 Maggio 2019 – Hotel Gallia Milano Scopri come, grazie a Elettraweb, trasformerai il tuo processo di fatturazione aziendale in uno strumento di ottimizzazione e analisi delle spese delle tue utenze aziendali. Tra i flussi di fatturazione, gli addetti al controllo di gestione aziendale riservano un’attenzione particolare ai costi e ai consumi legati alle utenze aziendali. In questo caso - in cui è opportuno attivare confronti puntuali tra le quantità fatturate e quelle effettivamente consumate - i dati generati dai servizi di Fatturazione Elettronica possono diventare una risorsa inaspettata. Quegli stessi dati, gestiti intelligentemente con strumenti e tecnologie innovative come gli algoritmi cognitive e le piattaforme blockchain, possono infatti rivelarsi eccezionalmente utili ai fini del business aziendale. ISCRIVITI ALL'EVENTO SCOPRI DI PIÙ

I primi esempi di blockchain IBM in Italia confermano un ruolo da protagonista per i partner

Come due genitori che a cena parlano solo del loro primogenito, durante gli ultimi Think - appuntamenti di riferimento per IBM, i suoi partner e i suoi clienti - si sono viste foto di presentazioni sulla blockchain, loghi di clienti italiani che usano la blockchain, selfie con esperti della blockchain, hashtag e infografiche a tema. Ed è legittimo, perché la blockchain in Italia, ma anche nel mondo, è un neonato. Ma è un figlio che promette veramente bene, non solo per IBM ma anche per i suoi parenti acquisiti, i partner. IBM ha una precisa offerta blockchain, nato sulle basi del progetto Hyperledger creato dalla Linux Foundation già nel 2015. Ha tutto quello che serve, infrastruttura hardware, piattaforma software e servizi a corredo. Ora bisogna solo proporla ai clienti. Per questo è utile dare visibilità ai cosiddetti progetti pilota dei pionieri italiani, i clienti che per primi hanno dato fiducia alla tecnologia e a IBM. È il caso di Barilla e del suo pesto, raccontato in questo video in cui si spiega la struttura del progetto, ma anche il valore che l’adozione della blockchain porta a clienti, fornitori e partner. Blockchain, portatrice sana di qualità e fiducia In estrema sintesi, una piattaforma blockchain permette di controllare e validare digitalmente tutte le fasi di un processo, dalla produzione alla distribuzione. La piattaforma è implementabile pressoché in qualsiasi contesto, anche se alcuni, come il food e il finance, in questo momento possono essere più sensibili alla sua introduzione. È comprensibile come il controllo e la certificazione dell’intero processo di filiera possa godere di immensi benefici dall’introduzione di una blockchain. Dal monitoraggio e dalla raccolta degli elementi primari, come il basilico nel pesto, fino al trasporto e l’acquisizione della materia prima da parte del brand, il controllo qualità, la lavorazione con altri ingredienti e il confezionamento, tutto è monitorabile e certificabile. Nell’arco di tutta la filiera, il brand è in grado di monitorare, controllare e validare tutto il processo, indipendentemente dal numero e dalla dislocazione di tutti gli elementi coinvolti, garantendo un elemento di qualità ai suoi consumatori estremamente differenziante. Con la blockchain il brand potrà godere degli enormi effetti benefici in termini di marketing e quindi di percezione, fiducia e fidelizzazione da parte dei propri clienti. I benefici della blockchain sono per tutti Ma gli effetti benefici della blockchain non riguardano solo il cliente. Anche il partner qualificato che ha lavorato sul progetto insieme a IBM ne godrà. Come abbiamo detto, la blockchain si sviluppa attraverso tre ambiti specifici: infrastruttura, software e servizi. E, se l’infrastruttura e il software sono a carico del fornitore della soluzione, in questo caso IBM, il partner ancora una volta ha l’incarico di fare la differenza nell’ambito dei servizi. Il ruolo del partner in un progetto di blockchain è di implementare un’offerta di servizi competente e coerente capace di generare un processo realmente abilitante all’innovazione. Come un neonato, anche la blockchain ha di fronte una evoluzione, ma i tratti somatici sono già percepibili. Cosa fa il partner in [...]

Gestire i Big Data si può, se hai lo storage giusto

Secondo uno studio recente di Persistence Market Research il mercato dello storage per i Big Data passerebbe in dieci anni dai circa 10 milioni di dollari del 2016 all’incredibile valore di 60 miliardi di dollari nel 2026. Un incremento anno su anno del 20,4% che neanche negli anni ’90, ai tempi d’oro dell’Informatica. Ciò significa una cosa sola, in qualsiasi regione geografica e per qualsiasi tipo di azienda in qualsiasi settore, il focus sulla gestione dei dati, componente fondamentale della Digital Transformation, richiede una revisione degli apparati in cui questi dati sono raccolti e archiviati. Sempre secondo la ricerca, infatti, la componente hardware pesa per quasi la metà (49,1%) del totale del valore del mercato dello storage per i Big Data. La necessità della revisione dell’infrastruttura di storage per le aziende deriva anche dalle richieste della cosiddetta compliance, ovvero le regolamentazioni che nel corso degli ultimi anni hanno posto come obiettivo la tutela della privacy e del dato in generale. Il GDPR europeo ne è il classico esempio. Rivedere lo storage che si ha in casa è fondamentale per tutelarsi dalle richieste delle normative di trattamento dei dati come il GDPR. Un’azienda oggi non può permettersi di pagare per l’incuria con cui gestisce i propri dati e quelli dei loro clienti: deve garantirne la tutela e la sicurezza, anche e soprattutto quando questi dati sono frutto di interscambi digitali tra fornitori, intermediari e clienti nella catena del valore. I dati utili a un’azienda crescono esponenzialmente In questo contesto è ormai ben evidente che non si può prescindere da tecnologie affidabili, sicure e ad accesso veloce come le tecnologie Flash. In quest’ambito è ben nota la leadership di IBM nel settore, ma lo stesso produttore non si culla negli allori e prosegue nello sviluppo della sua roadmap tecnologica, per esempio con i recenti FlashSystem 9100. Parlando di Big Data, inoltre, è fondamentale concentrarsi sull’elaborazione dei dati raccolti. L’archiviazione dai software legacy e la raccolta dei cosiddetti Alternative Data, ormai ritenuti fondamentali tanto quanto gli “ordinari”, richiede, come detto, un certo tipo di hardware. Ma, allo stesso modo, certe tecnologie come quelle dei sistemi Flash, diventano rilevanti anche nella elaborazione dei dati. Quindi, raccolta ed elaborazione. Ma, quando si parla di elaborazione, si tende a pensare alle capacità di calcolo dei sistemi hardware ma non abbastanza alle prestazioni dello storage. In un contesto più ampio, parlando di Intelligenza Artificiale, negli ultimi anni ci sono state delle evidenze che devono far riflettere. L’incremento delle prestazioni in ambito Deep Learning e processori grafici è stato eccezionale. Nello storage non tutti i vendor si sono adeguati alle nuove esigenze. Un sistema di Intelligenza Artificiale ha bisogno di tre asset fondamentali: il deep learning, le GPU (Graphic Processing Unit) e i Big Data. Ebbene, si pensi che in appena due anni gli algoritmi di deep learning hanno migliorato la loro efficacia di un fattore 15. Mentre, le GPU sono cresciute di 10 volte in termini di capacità di elaborazione. Big Data: anche lo storage deve [...]

Un’immagine vale più di mille parole, se l’hai elaborata con i sistemi giusti

Parlando di tecnologie di Image Detection, è proprio il caso di dire che un’immagine vale più di mille parole. I campi di applicazione delle tecnologie di analisi delle immagini sono numerosi e probabilmente siamo ancora alla punta dell’iceberg. IBM, con l’introduzione alcuni anni fa della piattaforma IBM PowerAI Vision, ha già posizionato una saldissima bandierina nel mercato, dimostrando ancora una volta di vederci lungo. IBM PowerAI Vision è utilizzato con successo anche in Italia ma la delicatezza dei progetti spesso ne impedisce la divulgazione. Il concetto alla base dell’Image Detection è molto semplice: acquisire informazioni grazie all’analisi delle immagini. Su YouTube si trovano diversi esempi di applicazione della tecnologia IBM PowerAI Vision. Con PowerAI Vision introdotto qualche anno fa, IBM ha dimostrato ancora una volta di vederci lungo e ha già qualche caso notevole di applicazione della tecnologia. L’Image Detection si può utilizzare per il monitoraggio del traffico nelle strade, per quello del flusso di clienti in un centro commerciale o in un qualsiasi altro luogo per fini di sicurezza, ma anche per verificare che il posizionamento della merce sia corretto rispetto al target che affolla un negozio. Dalle analisi microscopiche delle molecole in ambito farmaceutico si studiano nuovi preparati, e dal monitoraggio del comportamento di insetti e animali semplicemente filmandoli, si possono ottenere informazioni per predire, per esempio, le epidemie. Che ci vuole, in fondo? Basta una fotocamera, una videocamera o un microscopio, e il costo di una tecnologia che sfrutta l’Image Detection risulta contenuto. Il Deep Learning richiede grande potenza di elaborazione In verità non è esattamente così. È certamente vero che i dispositivi di acquisizione si possono adattare alle nuove richieste a un costo abbastanza contenuto. Ma è altrettanto vero che un sistema di Image Detection potente deve avere alle spalle una piattaforma hardware e software adeguata. Anche in questo caso entra in gioco l’Intelligenza Artificiale. In particolare, siamo nel campo del Deep Learning, ovvero all’interno del Cognitive – quando le macchine sviluppano un’intelligenza simile a quella umana – e del Machine Learning – quando gli algoritmi prevedono i comportamenti futuri sulla base dell’analisi dei dati. Il Deep Learning sfrutta un modello di rete neuronale per imparare dall’esperienza, fornita dai dati, e svolgere attività in base a ciò che ha imparato. Per realizzare qualcosa che, sulla base delle nostre reti neuronali, elabori meglio di un essere umano, è necessario un hardware di livello. Attraverso il Deep Learning si elaborano miliardi di informazioni al secondo, una capacità impossibile per il cervello umano. Si tratta di acquisire miliardi di dati attraverso immagini e video, perché su questi formati si raccolgono molti più dati rispetto ai formati testuali, e di eseguire migliaia di miliardi di operazioni al secondo. Insomma, l’hardware è importante. L’importanza di una partnership di livello Per questo IBM ha stretto a suo tempo una partnership con Nvidia, produttore di chip grafici di altissimo livello. E non ha solo integrato nei suoi server PowerAI i processori grafici, le GPU, di Nvidia ma ha realizzato una tecnologia di [...]

Torna in cima