TUTTI GLI ARTICOLI  >  Big Data Analytics

Big Data: i Real Time Analytics dalla teoria alla pratica

19 novembre 2018 / Di Irene Di Deo / Nessun commento

Real Time Analytics rappresentano una delle principali fonti di vantaggio competitivo per le aziende. La velocità, d'altronde, è una delle tre V che compongono la definizione di Big Data ed è una caratteristica che sta finalmente prendendo concretezza nelle grandi aziende. 

 

L'importanza dei Real Time Analytics

Advertising personalizzato, identificazione delle frodi, manutenzione predittiva: questi sono solo alcune delle progettualità abilitate dall’analisi dei dati in Real-Time o in Streaming.

Inoltre, il potenziale innovativo dei Real-time Analytics non riguarda soltanto progettualità di monitoraggio e analisi interna. Svolgere analisi in tempo reale abilita, grazie agli Analytics sempre più complessi integrati nei sistemi, l’evoluzione di prodotti e servizi, ne sono un esempio le opportunità che nascono dal mondo degli oggetti connessi (es. wearable devices, hybrid TV, veicoli a guida autonoma). I Real-Time Analytics coinvolgono, insomma, tutta la catena del valore degli Analytics e possono avere impatti determinanti sul modello di business di un’organizzazione.

Reagire al momento giusto: questo l’obiettivo principale di una progettualità di Real Time Analytics. L’esempio più noto, anche se per nulla semplice da realizzare, riguarda le attività di Proximity Marketing, ovvero attività promozionali personalizzate rivolte ai clienti che si trovano in prossimità di un negozio, per spinger loro ad entrarvi e realizzare un acquisto.

Leggi il report


Analisi dati a quattro velocità: dal Batch al Real Time

Detto dell'importanza del "real time", a che punto sono le grandi aziende italiane su questo tema? L’Osservatorio Big Data Analytics & Business Intelligence ha approfondito la variabile velocità d’analisi identificando quattro livelli, che si differenziano in base alla frequenza con cui il sistema mette a disposizione i dati raccolti, garantendone la qualità. La Ricerca 2018 è andata quindi ad indagare il posizionamento delle grandi aziende in questo percorso evolutivo.

Di seguito i principali risultati:

  • Batch, le analisi vengono svolte in modalità batch, è previsto dunque un aggiornamento del sistema che prende in carico i dati raccolti a intervalli regolari predefiniti (56%). Classico è l’esempio di quei sistemi che elaborano i dati raccolti nella giornata lavorativa durante la notte;
  • Near Real Time, un sistema che svolge le analisi con una frequenza d’aggiornamento che si riduce a intervalli di tempo solitamente identificati da ore o minuti (33%);
  • Real Time, il sistema è alimentato con dati raccolti in tempo reale che possono essere interrogati quando se ne ha l’esigenza (8%);
  • Streaming, vi è un flusso continuo di raccolta dei dati che devono essere analizzati con continuità. Il sistema è dunque capace di supportare il flusso costante dei dati. Questa capacità viene richiesta nel momento in cui è presente un insieme di sensori che identificano valori che variano in maniera continua nel tempo (3%).

Rispetto al 2017, ciò che è emerso è un importante incremento delle aziende che svolgono analisi in Near Real Time. Va detto che questa velocità d’analisi è sufficiente in molti contesti di business, rimane però inefficace per abilitare sistemi che diano una risposta automatizzata a determinati eventi.

 

Cosa vuol dire impostare un progetto di Real Time Analytics

Detto della teoria, è bene passare a qualche spunto pratico. Un progetto di Real Time Analytics necessità di un’infrastruttura tecnologia altamente performante, sia nella fase di ingestion (ovvero di raccolta dei dati), sia nella fase di interrogazione dei dati, sia nell’ultimo step di visualizzazione delle informazioni.

Da un lato, la tecnologia si sta muovendo, grazie a strumenti open-source (es. Apache Kafka), a piattaforme che abilitano nativamente l’integrazione tra dati storici e dati acquisiti in streaming e a strumenti di front-end sempre più dinamici. Dall’altro lato, anche gli utenti di business chiedono maggiore tempestività per prendere decisioni sempre più data-driven.

 

Gli obiettivi dell'analisi dati in tempo reale

Il percorso di adozione dei Real-Time Analytics entra nel vivo, dunque. Ma quali sono le principali finalità che spingono le aziende ad avviare progetti in questa direzione? L’Osservatorio ha suddiviso gli obiettivi in tre macro-categorie.

1. Monitoraggio e Alerting 

Progettualità di monitoraggio dei dati disponibili in tempo reale, che possono comprendere anche attività di alerting automatizzati al verificarsi di determinati eventi, più o meno complessi. Alcuni esempi provengono dal mondo industriale, quali progetti di identificazione delle anomalie nel processo produttivo, o dal mondo bancario, volti alla ricerca di frodi o di eventi correlati (eventi che dall’analisi dei dati storici si sono rivelati predittivi di una frode).

2. Automated Decision Making

Progettualità che, a partire dal monitoraggio dei dati in streaming, automatizzano determinate azioni al verificarsi di uno specifico evento. Rientrano in quest’ambito, giusto per citarne alcuni, i recommender system (“Potrebbe piacerti anche…?”) o azioni di ottimizzazione delle rotte di veicoli o persone.

3. Nuovi prodotti e servizi

Grazie alla capacità di analizzare i dati in Streaming, è possibile infine mettere sul mercato nuovi prodotti o servizi o di sfruttare al meglio le potenzialità di prodotti già esistenti. Si pensi alle smart tv, sulle quali possono essere implementati sistemi di addressable TV (contenuti pubblicitari personalizzati) basati sui comportamenti degli spettatori, o alla crescente diffusione dei wearable device, che in alcuni casi forniscono suggerimenti all’utilizzatore. L’applicazione più interessante, seppur più lontana, riguarda le automobili a guida autonoma.


Così come è per le analisi più tradizionali, le applicazioni degli Analytics in Real Time sono davvero numerose e attraversano in maniera trasversale tutte le funzioni e i processi aziendali.

A partire da miglioramenti tecnologici, le aziende dovranno quindi evolvere anche a livello di competenze e nei propri modelli organizzativi per riuscire a trarre vantaggio competitivo dalle analisi dei dati. Analisi non solo sempre più accurate e frutto di modellistica evolutiva, ma anche sempre più veloci, a volte ancor più veloci del cervello umano.

Vai al Webinar

Irene Di Deo

Irene Di Deo

Ricercatrice Osservatorio Big Data Analytics & Business Intelligence