Il numero di dati distribuiti in tutto il mondo raddoppierà nel corso 2011 ed andrà a toccare gli 1,8 zettabyte. E’ una cifra che riempirebbe 57,5 miliardi di iPad da 32 GB, una quantità sufficiente per ricostruire la Grande Muraglia cinese al doppio della sua altezza. Entro il 2020, si prevede che si raggiungano i 35 zettabyte. I dati vengono creati e replicati ad una velocità ben più rapida di quella stabilita dalla legge di Moore relativa alla potenza di elaborazione dei computer. Come se non bastasse, questi dati essi spesso si presentano in grandi insiemi non strutturati da cui nasce, quindi, la definizione di “big data”.
Il quinto report di IDC sul Digital Universe stima che le aziende siano responsabili dell’80% dei dati a livello globale; ciò nonostante l’investimento di queste ultime in infrastrutture tecnologiche è aumentato solo del 50% rispetto al 2005. Cifra che chiaramente risulta essere non è in linea con il tasso di crescita dei dati.
Ma da dove provengono tutti questi dati? Nel 2009 gli utenti di internet mobile erano circa 450 milioni. A partire dal 2013 questa cifra è destinata a superare il miliardo. I servizi di social media generano vaste quantità di dati non strutturati a causa del proliferare di conversazioni online. L’utilizzo di applicazioni social media sul posto di lavoro varia dal 13% dei dipendenti a quasi il 60% dell’intera forza lavoro. Le applicazioni software scaricabili permettono agli utenti di fare virtualmente qualsiasi cosa dai loro telefoni cellulari, mentre nuove applicazioni geospaziali quali Google Maps generano giornalmente innumerevoli quantità di dati temporanei.
Stare al passo con i requisiti di elaborazione e storage per gestire questo tsunami di dati è di per sé un compito arduo. Estrarre informazioni di valore da questo ammontare colossale di dati rappresenta una sfida completamente differente. Ma dove risiede il vero valore per le aziende e dove possono provare la loro competenza i professionisti dell’IT più lungimiranti?
Comprendere i Big Data
EMC risponde a questo nuovo panorama con soluzioni hardware e software innovative. Tra questi ci sono nuove architetture di storage scale-out, applicazioni di business intelligence e tecnologie di cloud computing.
Sebbene il Digital Universe Report 2011 anticipi che solo il 2% della spesa IT sarà indirizzato sui servizi cloud, questo dato in realtà è destinato a crescere in maniera esponenziale fino a raggiungere il 20% nel 2015. Già oltre un terzo delle aziende afferma di utilizzare un mix di public cloud e private cloud. Le tecnologie cloud offrono molti vantaggi grazie alla rapida scalabilità della capacità di storage ed ai benefici sui costi con la server virtualization. Questo rappresenta un valore aggiunto per il trattamento dei dati.
Nonostante ciò, IDC stima che durante il prossimo decennio gli IT manager dovranno gestire un numero di server dieci volte superiore a quello attuale, con una quantità di dati 50 volte maggiore ed un numero di file aumentato di ben 75 volte rispetto ad oggi potendo contare su un team di risorse.
Il valore aggiunto tratto dal “caos”
Non è solo la quantità di dati che sta cambiando rapidamente ma la tipologia degli stessi. Non sono dati strutturati, si replicano a velocità stratosferica e molti si dissolvono con la stessa rapidità con cui sono generati. I big data necessitano di una gestione diversa e c’è necessità di tecnologie di gestione e manipolazione molto più efficienti rispetto a quelle utilizzate in passato.
Da dove si deve cominciare, quindi, per “estrarre” valore dall’universo digitale? Prima di tutto, occorre presentare al CIO un business case specifico per investire nella tecnologia della quale si ha bisogno al fine di automatizzare il procedimento di acquisizione, trattamento e conservazione dei dati. In seguito bisogna pianificare una strategia progressiva di business intelligence che permetta alla propria azienda di comprendere e interpretare i dati che processa, con conseguenti benefici tangibili a livello di business.
L’analisi dei big data permette alle aziende di effettuare confronti incrociati e comparazioni di insiemi disparati di dati non strutturati per trovare nuovi “sweet spot” competitivi. A titolo di esempio, le aziende di finanziamento potrebbero ridurre i rischi sui prestiti coprendo i dati delle richieste con i dati di pignoramento in un contesto geospaziale; i retailer potrebbero combinare informazioni sui social network, contenuti dei blog e ricerche degli analisti con dati socio-demografici per identificare trend di acquisto e motivazioni che spingono alla fedeltà da parte dei clienti; le forze dell’ordine potrebbero monitorare la criminalità andando a valutare riprese video, prove fotografiche, registri di polizia e altre fonti di informazione
Ci sono due considerazioni fondamentali da fare in relazione alla metodologia dei big data. In primis, occorre decidere quale sia l’intelligence che porti più valore alla propria azienda. In secondo luogo e forse cosa più importante, l’analisi dei big data richiede un’interpretazione più sofisticata oltre ad un insieme di competenze più complesse e trasversali per sfruttare qualsiasi idea.
Procedendo nel modo giusto si ottengono notevoli vantaggi, quali una road to market più rapida, processi di selezione più ponderati, strategie di marketing più efficaci e in definitiva, un aumento sostanziale nei profitti.
Non bisogna commettere errori. La business intelligence derivante dai big data rappresenta un grosso affare. Può trasformare l’IT da un centro di costi in un centro di profitti. Può essere l’elemento differenziatore rispetto alla concorrenza. Può, senza dubbio, definire quali saranno i vincitori e gli sconfitti nel prossimo decennio. C’è veramente il rischio che qualche professionista dell’IT possa ignorare tutto questo?