TUTTI GLI ARTICOLI  >  Big Data Analytics

I trend Big Data da tenere d'occhio per il 2019

06 marzo 2019 / Di Alessandro Piva / Nessun commento

Tecnologia, processi, organizzazione, cultura aziendale: la trasformazione digitale abilitata dagli Analytics in azienda si concretizza in cambiamenti in tutti questi quattro ambiti.

Ma quali sono le tendenze in atto a livello italiano e internazionale nel mondo Big Data Analytics? Vediamole nel dettaglio.

 

1. Real Time Analytics: la sfida della Velocità

Una delle classiche tre V dei Big Data – quella della Velocità – sta finalmente prendendo concretezza nelle grandi aziende ed emerge oggi come una delle principali fonti di vantaggio competitivo. Svolgere analisi in tempo reale abilita non solo visibilità interna dei processi e azioni automatizzate ma anche l’evoluzione di prodotti e servizi (dai wearable devices alle auto a guida autonoma).

I Real-Time Analytics coinvolgono dunque tutta la catena del valore degli Analytics e possono, in alcuni casi, avere importanti impatti sul modello di business di un’organizzazione.

Grazie all’affermazione di nuovi sistemi open-source, a strumenti tecnologici che abilitano nativamente l’analisi dei dati in tempo reale (es. database high-performing; piattaforme di integrazione dati Batch e Real-Time) e alle esigenze di tempestività degli utenti di business, le grandi aziende italiane hanno compiuto nel 2018 un grande balzo in avanti sul tema Real Time e Streaming.

Scarica l'infografica

 

2. Le nuove frontiere architetturali: con Hadoop, oltre Hadoop

Hadoop, framework software per l’elaborazione di elevate moli di dati in modalità parallela, ha aperto la strada al fenomeno dei Big Data e si è affermato negli ultimi anni come standard tecnologico.

Ma se Hadoop – sviluppato dall’Apache Software Foundation – è stato il progetto open source ad avere l’impatto maggiore in ambito Analytics, ad oggi costruire un’architettura Big Data non coincide soltanto con l’adozione di questo strumento. L’ecosistema open source si è arricchito di tecnologie e complessità, al fine di gestire al meglio proprio i due ambiti descritti in precedenza: analisi in tempo reale e Machine Learning. Si affermano così nuovi standard tecnologici, tra cui ad esempio Apache Spark come motore di elaborazione nel cluster Hadoop e Apache Kafka come sistema di stream processing. La capacità di muoversi in questo contesto è ancora rara nelle grandi aziende italiane, che sopperiscono a questa mancanza affidando la costruzione dell’infrastruttura ai partner tecnologici, spesso senza un disegno architetturale di lungo periodo.

 

3. Hybrid Cloud ed Edge Computing: acceleratori dei progetti di Analytics

Il principale trend Big Data del momento è quello dell’Hybrid Cloud, ovvero la possibilità di connettere il proprio ambiente privato con uno o più sistemi di Public Cloud. Un ambiente Cloud ibrido abilita una flessibilità ancora maggiore, limita i movimenti dei dati e consente l’esecuzione degli Analytics dove i dati sono memorizzati. Ottimizzazione dei costi, dunque, ma anche maggiore agilità e migliore gestione dei requisiti legali in termini di privacy e confidenzialità dei dati.

Questi benefici sono ormai recepiti dalle grandi aziende che utilizzano questi ambienti. Accanto all’Hybrid Cloud assume crescente interesse il tema dell’Edge Computing, ovvero un’architettura con risorse distribuite che supporta le risorse centralizzate Cloud avvicinando specifiche elaborazioni ed analisi al luogo dove le informazioni vengono effettivamente raccolte (es. sensori). In questo modo è possibile accrescere l’efficienza delle attività di raccolta e analisi, evitando di movimentare grandi moli di dati tra la periferia e i sistemi on-premises o Cloud.

 

4. Smart Data: la rivoluzione del Machine Learning

Sviluppare algoritmi di Machine Learning significa sia estrarre valore da fonti dati nuove (in primis i dati destrutturati) sia utilizzare fonti tradizionali in un modo nuovo, invertendo il processo “ipotesi-Test” che caratterizza da secoli il Metodo Scientifico. Per citare alcuni esempi, avvalersi di algoritmi di Machine Learning può portare ad:

  • anticipare il comportamento dei clienti;
  • aumentare l’efficacia del sistema di prevenzione delle frodi;
  • analizzare in maniera intelligente immagini o video.

Le tecniche di Machine Learning, grazie ai giganti del web, svolgono già un ruolo di primo piano nella nostra vita quotidiana, ma le potenzialità e la pervasività d’impatto che le caratterizzano non sono state ancora valorizzate appieno dalle grandi organizzazioni, ancor meno dalle piccole e medie imprese.

Vai al Webinar

 

5. Data as a Service: le opportunità della Data Monetization e il ruolo degli Information Provider

Chi si interessa di Data Analytics non può aver sottovalutato la nascita di Dataset Search, un motore di ricerca creato da Google per aggregare e indicizzare le banche dati presenti sul web. È questo il primo grande segnale di un cambiamento culturale, mosso non solo e non tanto dalla logica degli Open Data, che coinvolge principalmente le pubbliche amministrazioni, ma soprattutto dalla “fame di dati”, materia prima necessaria per sviluppare (e in particolar modo addestrare) gli algoritmi più innovativi.

Questo trend Big Data è noto agli analisti internazionali con il nome di Data as a Service, ovvero mettere a disposizione i dati on-demand, secondo differenti logiche di pricing. Il ruolo degli Information Provider assume in questo contesto un’assoluta rilevanza, ma anche aziende che provengono da core business differenti possono cogliere queste nuove opportunità.

 

6. Data Literacy: un cambiamento culturale abilitato dalla tecnologia

Per Data Literacy, o information literacy, si intende la capacità di identificare, individuare, valutare, organizzare, utilizzare e comunicare le informazioni. In altre parole, con il termine Data Literacy si intende l’alfabetizzazione dei dati, la capacità di interpretarli correttamente e di raccontare un fenomeno attraverso di essi.

L’importanza di questa competenza è sempre più chiara alle aziende, in particolar modo ai ruoli manageriali, ai quali viene richiesto (e a loro volta richiedono) di costruire un processo decisionale data-driven. La diffusione della Data Literacy passa attraverso una maggiore diffusione delle figure professionali legate ai dati e dei corsi di studio per formarli, ma non è tutto. Si diffondono anche strumenti che permettono all’utente di business di gestire in autonomia il processo d’interrogazione dei dati (dall’esplorazione all’analisi, fino alla visualizzazione degli insight) e questa tendenza, nota con il termine di Self-Service Data Analytics è sia il principale driver tecnologico per abituare all’utilizzo dei dati un numero maggiore di utenti sia è la prima conseguenza della crescente diffusione delle Data Literacy nelle aziende. Non a caso, uno dei leader tecnologici di questo mercato, ha dato vita nel 2018 al Data Literacy Project.

 Vai al Webinar

Alessandro Piva

Alessandro Piva

Ricercatore alla School of Management del Politecnico di Milano, dove è responsabile della Ricerca degli Osservatori Information Security & Privacy, Big Data Analytics & BI e Cloud Transformation. All’interno delle sue aree di riferimento conduce attività di ricerca e consulenza per imprese e Pubbliche amministrazioni italiane