Si utilizza il termine big data per descrivere una raccolta di dataset così grande e complessa da richiedere strumenti differenti da quelli tradizionali, in tutte le fasi del processo: dall’acquisizione, al filtraggio dei dati, giungendo alla condivisione, analisi e visualizzazione degli stessi. Ciò che si deve immaginare è l’insieme raccolto e aggregato di un’enorme mole di dati provenienti da fonti eterogenee, non soltanto dati strutturati come i classici database, ma anche dati non strutturati come immagini, email, dati GPS, informazioni catturate dai social network. Per gestire e manipolare tali masse di dati è necessaria una potenza di calcolo parallelo con strumenti dedicati eseguiti su centinaia o anche migliaia di server.
Come nascono i big data dunque? Sino agli attacchi dell’11 settembre 2001, gli strumenti principali a disposizione della National Security Agency, erano intercettazioni telefoniche, aerei per lo spionaggio e microfoni nascosti e l’unico obiettivo da tenere d’occhio era l’Unione Sovietica. Da quel momento in poi il nemico dell’NSA diventa una rete di singoli terroristi per cui chiunque poteva essere nel giusto mirino per un’intensa attività di spionaggio. Al passo con la crescita esponenziale dei dispositivi mobili collegati ad Internet, gli strumenti adottati fino a quel momento non sono più sufficienti. Così in risposta a ciò la NSA ha cominciato a raccogliere tutto: sono state captate registrazioni telefoniche di massa provenienti da qualunque cittadino statunitense e non. L’enorme quantitativo di dati è stato a lungo custodito presso le sedi segrete dell’agenzia. Le principali conseguenze di tutto ciò sono state tuttavia il diretto accesso da parte degli analisti dell’NSA alle informazioni personali dei cittadini, mezzo attraverso cui condurre a breve analisi di mercato, studi sul comportamento umano e tanto altro ancora. Il modo per difendersi da un’appropriazione indebita di dati personali può essere, oggi, salvaguardare l’archiviazione e la trasmissione delle informazioni mediante la crittografia. Tutti gli enti dovrebbero essere soggetti a un controllo dei metadati e a procedure di valutazione, come oggi sono monitorate le carte di credito per evitare le truffe.
E le Pmi come possono utilizzare le masse di dati e metadati a disposizione per gestire le loro attività e attuare le proprie idee strategiche? Secondo Thomas Davenport, docente al Babson College, direttore della ricerca dell’International Institute for Analitics e senior advisor di Deloitte, lo sforzo necessario per estrarre e strutturare i big data è notevole. Servono abilità e capacità particolari per riuscirci. Devenport è stato forse il primo ad aver mostrato alle aziende come combinare i big data con gli small data per ceare valore nei processi di business. Si tratta in buona sostanza di un approccio che lui ha chiamato Analitics 3.0. In tal modo si aprono le porte per un’analisi dei dati totalmente nuova e molto più efficiente il cui risultato è l’attenta e più efficace combinazione dei big data e dei small data. I big data rappresentano lo strumento essenziale per apprendere informazioni strategiche relative ai clienti e consumatori in ogni luogo della Terra, scoprire le risorse offerte dai fornitori. L’hardware necessario per manipolare i big data non sembra risultare molto costoso e le risorse offerte in cambio promettono il vantaggio di catturare dall’ambiente esterno gli svariati ingredienti necessari ad una più efficiente gestione d’impresa.