EMC spiega i mille volti dei Big Data

di Cristiano Guarco

scritto il

L’evento Leading Ideas, organizzato da EMC, ha analizzato uno dei trend chiave del momento: i Big Data per rilanciare e rendere più competitive le PMI italiane.

All’evento Leading Ideas organizzato a Milano da EMC in collaborazione con SAS, si è fatto il punto su uno dei fenomeni chiave del momento: vettore competitivo per le aziende ed il sistema Paese, risponde al nome di Big Data.
In ambito Information Technology, indica grandi aggregazioni di dati, la cui complessità richiede strumenti avanzati in tutte le fasi del processo, dalla gestione alla curation, passando per l’analisi e la condivisione.

=>EMC: come valorizzare i Big Data per il business

Fin dal suo emergere, il fenomeno ha catturato l’attenzione delle aziende, PMI comprese. Il motivo risponde a un’esigenza di concretezza: le imprese di ogni dimensione sono oggi sommerse da una mole crescente di dati di ogni genere, più o meno strutturati, che necessitano un’analisi immediata.

Da necessità a risorsa

Dall’esigenza di gestire il proliferare delle informazioni di business le aziende possono tirare fuori qualcosa di più, creando un valore aggiunto in grado di renderle più competitive. È un processo sfaccettato , dalle molteplici connessioni e dai molti sviluppi. A fare il punto, Marco Fanizzi, Amministratore delegato di EMC Italia.

“I Big Data sono intorno a noi, nelle case e nelle aziende. L’esplosione dei dati digitali parte infatti dalla consumerizzazione dell’IT”.

“Oggi la sfida è rendere i dati un fattore competitivo per le aziende. È il momento giusto per cavalcare l’onda: vi sono fonti disponibili, si sono ridotti i costi per processare e immagazzinare i dati, sono mature le tecnologie per estrarre, analizzare e correlare i dati”.

“Ma non basta, occorre innovare, trovare il modo giusto per far sì che questa mole di dati si trasformi in informazioni da cui trarre valore per il business. E per far ciò occorrono anche nuove figure professionali come il data scientist  capaci di interpretare i dati, sviluppare idee innovative e individuare nuovi mercati”.

=>Big Data poco sfruttati: le opportunità 2013

Vantaggio competitivo

Più delle parole contano i fatti. E, attraverso interessanti case history, EMC ha dimostrato la concretezza del fenomeno Big Data.

Luigi Curini (Università degli Studi di Milano e co-fondatore di Voices from the Blog) ha analizzato i risvolti di brand reputation dei Big Data, con l’obiettivo di far diventare la loro gestione un processo semplice, che consente di estrarre un chiaro contenuto aggregato.

Portando l’esempio delle presidenziali americane – due milioni di tweet al giorno – è emerso chiaramente come l’analisi supervisionata e l’accuratezza nel definire il contenuto semantico sono fattori portanti nella gestione dei Big Data: seguendo il linguaggio naturale degli utenti, si riesce a fare un’analisi della distribuzione aggregata oltre che del singolo testo.

Applicazioni pratiche

Passando allo sfruttamento dei dati in azienda, significativa è stata la testimonianze di Luciano Ammenti, Responsabile Coordinamento Servizi Informatici e CED Director della Biblioteca Apostolica Vaticana.

Per raggiungere gli obiettivi di una conservazione e fruizione dei dati digitali a lungo termine, è stato scelto un formato che permette di “liberare” le verticalizzazioni e definire facilmente i metadati, optando per Fitz, nativo a 64 bit e pronto per il 3D, progettato in origine per le missioni lunari della NASA.

Altre testimonianze di particolare: Enza Messina (Università Milano Bicocca), su un progetto europeo nel settore della Giustizia per facilità e rendere più efficiente la consultazione dei dati e di conseguenza i processi decisionali; Massimo Messina, Head of Service Line ICT Infrastructure & Applications di Unicredit Business Integrated Solutions, ha focalizzato l’attenzione sui dati strutturati per un volume mensile di circa 500 terabyte, con campi d’azione molteplici: sicurezza per prevedere frodi, analisi del rischio di credito, profilatura del cliente, analisi di performance e qualità del servizio tramite il controllo real time degli sportelli ATM e dei pagamenti POS così da cercare di capire come agisce il consumatore.

Modelli e strumenti

Elisabetta Fersini (Università degli Studi di Milano, co-fondatrice di Sharper Analytics), ha ribadito un concetto importante: “Il dato non sempre corrisponde a conoscenza, non tutti i dati sono utilizzabili. L’obiettivo per creare valore è scoprire fatti unici e specifici, relazioni tra eventi e capire qual è l’affidabilità dei dati che ci circondano.
Per questo è fondamentale aggregare le informazioni e costruire modelli interpretativi, utilizzando strumenti di data web e text mining, modelli computazionali di apprendimento automatico, che imparano dai dati e modelli probabilistici al fine di gestire il grosso problema dell’incertezza dei dati e delle fonti”.

Marco Massarotto, fondatore e presidente di Hagakure, ha dichiarato nel suo intervento: “Quello dei Big Data sembra essere un problema da sempre, ma oggi è diventato esplosivo a causa della combinazione deflagrante di due fenomeni quali il social media e la mobilità. Lo snodo sta non solo nel risolvere il problema ma nel creare nuove opportunità, nuovi servizi e strumenti, nuovi mercati. Occorre così riorganizzarsi attorno alle domande che arrivano dagli utenti, per un cambiamento non solo tecnologico ma anche sociale”.

Anche per Valeria Sandei, CEO Almawave (Gruppo Almaviva), il tema del Big Data è intrinsecamente connesso con altri driver: social, mobile, cloud che, collegati nel modo giusto, danno risposte tecniche e applicative per migliorare influenza reciproca tra aziende e clienti.

Le esperienze illustrate si sono chiuse con l’intervento di Roberto Saracino, Direttore di Funzione Tecnologie dell’Informazione di Postel: “Gestiamo le informazioni per i clienti lungo l’intera catena del valore: acquisizione, gestione, supporto e analisi e anche archiviazione. L’integrazione e la disponibilità nell’accesso al dato può diventare informazione, acquisendo valore, ma solo ed esclusivamente se prelevato, elaborato e associato all’interno del contesto. Il nostro obiettivo è certificare l’intera catena dell’informazione garantendo l’integrità del dato e la sua disponibilità, utilizzando in modo produttivo gli strumenti d’analisi già a nostra disposizione”.