TUTTI GLI ARTICOLI  >  Big Data Analytics

Le 5V dei Big Data: dal Volume al Valore

27 marzo 2019 / Di Alessandro Piva / Nessun commento

Nel 2001, Doug Laney, allora vice presidente e Service Director dell’azienda Meta Group, descrisse in un report il Modello delle 3V relativo alle 3V dei Big Data: Volume, Velocità e Varietà. Un modello semplice e sintetico per definire dei nuovi dati, generati dell’aumento delle fonti informative e più in generale dall’evoluzione delle tecnologie. Oggi il paradigma di Laney è stato arricchito dalle variabili di Veridicità e Variabilità e per questo si parla di 5V dei Big Data.

 

Le 3V dei Big Data: quali sono?

Si definiscono Big Data quei dati che abbiano almeno una delle seguenti caratteristiche:

  • Volume: ogni giorno, in moltissime attività della nostra vita quotidiana, generiamo dati. Con volume si fa riferimento quindi a quest’ingente massa di informazioni, che non è possibile raccogliere con tecnologie tradizionali. Questo volume di dati è in continua crescita, gli analisti internazionali stimano che la produzione di dati nel 2020 sarà 44 volte maggiore di quella del 2009. Proprio per questo è difficile identificare un valore limite al di sopra del quale si può parlare di Big Data. Per adesso, consideriamo la soglia di più di 50 Terabyte o volumi di dati che crescono più del 50% annuo.
  • Velocità: I dati nascono e vengono acquisiti sempre più rapidamente. Basta pensare alla proliferazione di dispositivi dotati di sensoristica capace di raccogliere dati in tempo reale. La sfida, con cui le aziende sono chiamate a confrontarsi, è la necessità non solo di raccogliere questi dati ma anche analizzarli in tempo reale, per poter prendere decisioni di business con la maggiore tempestività possibile.
  • Varietà: “More isn’t just more. More is different.” – così scriveva Chris Anderson sul magazine Wired, era il 2008. Con varietà si fa riferimento proprio alle differenti tipologie di dati oggi disponibili, provenienti da un numero crescente di fonti eterogenee. Non solo sistemi transazionali e gestionali aziendali, ma anche sensori, social network, open data. Dati sia strutturati che non, sempre di più non solo dati interni all’organizzazione ma anche acquisiti esternamente.

 

Perché oggi parliamo di 5V?

Nei primi anni 2000 si definivano i Big Data con tre parole: volume, velocità e varietà. Con il passare degli anni, mentre il termine perdeva la sua aurea fantascientifica per diventare sempre più concreto e applicabile nelle aziende, ci si è chiesto se non vi fossero altre caratteristiche da mettere in risalto.

Hanno arricchito il modello due nuove V, volte a definire come questi nuovi dati debbano essere utilizzati:

  • Veridicità: tra gli addetti al settore, alcuni usano dire “Bad data is worse than no data”. I dati devono essere affidabili, raccontare il vero. Con i Big Data questa sfida è ancora più difficile da affrontare: cambiano le tecnologie di gestione dei dati, cambia la velocità con la quale i dati vengono raccolti e aumentano le fonti. La qualità e l’integrità delle informazioni rimane però un pilastro imprescindibile per dar vita ad analisi che siano utili e affidabili.
  • Variabilità: molti più dati, in diversi formati e provenienti da diversi contesti. La mutevolezza del loro significato è un aspetto da tenere in considerazione nel momento in cui i dati vengono interpretati. Ancor di più, se a farlo è un utente che lavora in una linea di business e non solo il data scientist.

 

La sesta “V”: il valore

I Big Data sono stati definiti negli ultimi anni come il nuovo petrolio o il nuovo oro, ovvero una fonte inestimabile di valore. È esattamente così. Ma limitarsi a raccogliere i dati, pur sfruttando le migliori tecnologie disponibili sul mercato, non garantisce di avere informazioni e soprattutto di estrarre conoscenza.

Parlare di dati, informazioni e conoscenza vuol dire parlare di aspetti in relazione tra loro ma differenti. Per definizione un dato è una rappresentazione codificata di un'entità, di un fenomeno, di una transazione, di un avvenimento. L’informazione è il risultato di un processo di analisi del dato, spesso ha significato soltanto per colui che opera nel dominio di generazione del dato. La conoscenza si ottiene quando una persona utilizza le informazioni per prendere decisioni e realizzare azioni, quando le informazioni vengono utilizzate per esser messe “in pratica”.

Per attuare questo processo, e far sì che i Big Data possano essere trasformati in informazioni da utilizzare nei processi aziendali costruendo conoscenza per migliorare le performance, sono necessari strumenti di Analytics. Oltre il modello delle 5V, quindi, è doveroso considerare una ulteriore V: il valore. Qui sono le metodologie di Big Data Analytics ad essere fondamentali, attraverso il loro utilizzo un’azienda può estrarre valore, ovvero prendere decisioni più informate, tempestive e consapevoli, dal vasto mondo dei Big Data.

Vai al Webinar

Alessandro Piva

Alessandro Piva

Ricercatore alla School of Management del Politecnico di Milano, dove è responsabile della Ricerca degli Osservatori Information Security & Privacy, Big Data Analytics & BI e Cloud Transformation. All’interno delle sue aree di riferimento conduce attività di ricerca e consulenza per imprese e Pubbliche amministrazioni italiane