Quando si parla di big data analytics ci si riferisce, solitamente, all’analisi avanzata di grandi volumi di dati. Prendere decisioni oggettive, migliori e più efficaci rispetto al passato, basate su una corretta analisi dei dati è ormai diventata un’esigenza prioritaria per le aziende di qualsiasi dimensione e tipologia. Di fronte a scenari globali e mercati sempre più competitivi, prendere decisioni appropriate e consapevoli si rivela innegabilmente complesso. In altri termini, non è più efficace “navigare a vista” prendendo decisioni “di pancia” o basate semplicemente sull’esperienza. Occorrono competenze e tecnologie nell’ambito dell’analisi dei dati: la battaglia della competitività si gioca, ora più che mai, grazie ai big data analytics.

Cos’è la big data analytics

Per big data analytics si intende l’insieme di processi utilizzati per analizzare i dati e scoprire nuove informazioni, come modelli nascosti, correlazioni tra le variabili di contesto, trend di mercato e preferenze dei consumatori. La big data analytics, utilizzando sempre più spesso tecniche di intelligenza artificiale e machine learning, consente alle organizzazioni di prendere decisioni più informate e consapevoli per raggiungere con successo i loro obiettivi di business.

Le tecnologie di analisi dei dati sono infatti determinanti per analizzare la principale risorsa delle organizzazioni nell’era del digitale: i dati, ai fini di generare valore aggiunto attraverso insight ed informazioni contestuali. In questo frangente, emergono due discipline di riferimento: la business intelligence, che si occupa soprattutto delle analisi descrittive, e la business analytics, finalizzata alla realizzazione di analisi predittive e prescrittive.

Immagine promozionale per il whitepaper su Data Driven

In altri termini, la big data analytics rappresenta una tipologia di advanced analytics che impiega applicazioni complesse come modelli predittivi, algoritmi statistici e analisi what-if sfruttando sempre più spesso la capacità di elaborazione del cloud computing, che ha consentito di superare un limite oggettivo che per molti anni ne ha limitato la diffusione su larga scala.

Nonostante la grande diffusione a cui abbiamo assistito negli ultimi anni, la big data analytics non rappresenta infatti una novità assoluta. Ciò che sta avvenendo oggi è piuttosto descrivibile come una fase di democratizzazione, che rende disponibile tale disciplina ad una platea più allargata, come nel caso delle PMI, grazie alla già citata possibilità di avvalersi delle capacità computazionali dei servizi in cloud, oltre alla disponibilità di software sempre più semplici da utilizzare, anche per gli stakeholder non tecnici.

Il termine big data ha fatto la propria comparsa verso la metà degli anni Novanta, riferendosi al notevole incremento del volume di dati con cui le organizzazioni iniziavano ad avere a che fare. Nel 2001, l’analista Doug Laney ha introdotto il concetto delle 3V dei big data: volume, varietà e velocità, tre fattori a cui Gartner, qualche anno più tardi, avrebbe aggiunto la quarta V: il valore.

Tra le tappe significative nella storia dei big data va citato il lancio del framework Hadoop, un progetto open source basato su Apache che ha visto i propri natali nel 2006 ed ha guadagnato, soprattutto negli anni 2010, una notevole popolarità grazie ad una serie di tool appositamente concepiti per il big data management.

La popolarità dei big data è costantemente cresciuta fino ai giorni più recenti, quando gli hyperscaler (Amazon, Google, Microsoft, ecc.) hanno iniziato a rendere disponibili servizi di data analytics sempre più integrati nelle applicazioni dei loro ecosistemi cloud.

Contestualmente si sono imposti sul mercato brand specialisti nell’ambito della data analytics, come Tableau, che ha ad esempio introdotto nuovi standard per quanto concerne la data visualization, permettendo anche agli stakeholder non esperti in scienza dei dati di leggere gli insight, in maniera assolutamente semplice ed intuitiva.

Come citato, inizialmente la big data analytics è stata adottata da grandi nomi come Google, Facebook o Yahoo nel contesto dei servizi di marketing e e-commerce, ma nel tempo ha trovato una diffusione sempre più ampia in tutti gli ambiti di business alle prese con la trasformazione digitale, tra cui possiamo citare: manifattura, retail, banking, assicurazioni, healthcare, energia e utilities.

Tipologie di dati

L’analisi dei dati in termini di materia prima si riferisce sostanzialmente a tre principali tipologie: dati stutturati, non strutturati e semi-strutturati.

Dati strutturati

I dati strutturati sono i dati “tabellari” solitamente organizzati in sistemi come i database, i data set e fogli di calcolo. La loro struttura si presta alla perfezione anche agli strumenti di analisi tradizionali ed è il risultato di un processo di data preparation che comprende la catalogazione, la mappatura e la trasformazione dei dati acquisiti da varie fonti, che possono spaziare dai canali di comunicazione aziendali ai sistemi operativi sul piano di fabbrica.

Dati non strutturati

I dati non strutturati, o dati grezzi, hanno visto un notevole incremento soprattutto negli ultimi anni e fanno riferimento, oltre ai dati testuali non strutturati, anche a file multimediali come audio e video provenienti da streaming di dati. Un esempio può essere costituito dai filmati che i sistemi di videosorveglianza e i sistemi antifrode acquisiscono in tempo reale, per sottoporli all’analisi di applicazioni di data analytics che utilizzano tecniche di computer vision per rilevare situazioni anomale rispetto ai pattern standard.

Dati semi-strutturati

I dati semi-strutturati, come il nome stesso lascia presagire, rappresentano una condizione intermedia rispetto alle due tipologie principali. Sono infatti costituiti da una presenza di struttura che tuttavia non risulta ottimale per l’analisi e va pertanto sottoposta ad un ulteriore lavoro di preparazione, spesso automatizzato da soluzioni come Tableau, in grado di gestire end-to-end l’intero processo, coinvolgendo dati strutturati, non strutturati e semi-strutturati.

Perché è importante?

La big data analytics sta avendo un grande successo in termini di diffusione e di capacità di creare valore aggiunto per il business supportando informazioni più informate e consapevoli. Le organizzazioni possono infatti avvalersi di sistemi di data analytics per rendere concreto un approccio operativo data-driven, effettivamente basato su quella cultura del dato su cui si fonda l’era digitale.

Per focalizzare l’importanza della big data analytics nel contesto delle aziende nell’era del digitale è utile riferirsi proprio alle 4V dei big data: volume, velocità, valore e varietà.

Volume

Big data è un termine che si riferisce espressamente al grande volume di dati con cui le organizzazioni si interfaccia nell’era del digitale. L’aspetto quantitativo legato alle informazioni che le organizzazioni devono trattare e gestire ogni giorno è quindi fondamentale soprattutto nella prospettiva di considerare il progressivo aumento del volume dei dati, previsto nei prossimi anni.

Le soluzioni di big data analytics affrontano il problema legato ai sistemi di gestione dei dati, con l’emergere di nuove soluzioni di data lake e data warehouse in cloud, che hanno dalla loro un’oggettiva scalabilità in funzione dell’aumento dei volumi di storage.

Oltre all’aspetto puramente quantitativo, che si lega alle esigenze di storage, è fondamentale considerare un sistema di policy che favorisca la standardizzazione e l’automazione del workflow relativo ai dati da analizzare.

Le aziende devono quindi adottare un framework che consenta loro di diventare più agili e flessibili nei confronti del data management.

Velocità

Alla crescita del volume dei dati si associa la crescita del ritmo con cui ciò avviene, in quanto le applicazioni in grado di generare dati sono in continuo aumento, così come la loro adozione da parte dei dipendenti e dei consumatori.

Gestire flussi di dati sempre più veloci costringe le aziende a dotarsi di tecnologie e metodi di data management all’altezza di tale scopo, nella misura effettivamente funzionale alle esigenze di business. In altri termini, devono diventare più efficienti nella capacità di selezionare e preparare i dati da analizzare, affrontando il processo in maniera critica.

Valore

Il “value” è la V più giovane del lotto, essendosi aggiunta soltanto in un secondo momento a volume, velocità e varietà, la triade originale dei big data, secondo quanto coniato da Doug Laney.

Per valore si intende il contributo dei big data alla business transformation delle organizzazioni, in particolare per quanto concerne la capacità di stabilire metriche per misurare il raggiungimento degli obiettivi, valutare i rischi, individuando le opportunità più concrete da realizzare.

Per soddisfare questi obiettivi, le applicazioni di data analytics utilizzano sempre più frequentemente tecniche di intelligenza artificiale e machine learning per correlare dati e variabili relative a qualsiasi contesto analizzato, identificando modelli in grado di spiegare i trend e suggerire soluzioni utili alla crescita del business.

Varietà

La trasformazione digitale, oltre ad introdurre dati in grande quantità, ha accentuato la loro varietà. Se un tempo i dati strutturati costituivano una condizione sufficiente, oggi le organizzazioni devono saper gestire e analizzare, con altrettanta efficacia, anche i dati non strutturati.

La varietà dei dati presuppone, oltre alla modernizzazione dei sistemi IT, un’attività di formazione capace di rendere concreta l’adozione di una cultura data driven, utile affinché i dipendenti sappiano sfruttare pienamente le opportunità introdotte dalle tecnologie emergenti, anziché utilizzare “cose nuove per fare cose vecchie”.

I vantaggi della big data analytics

La capacità di generare valore informativo attraverso l’analisi dei dati può garantire alle organizzazioni una serie di importanti benefici, a condizione che le attività di big data analytics vengano implementate in maniera consapevole nei processi aziendali.

In sintesi, tra i principali che una corretta implementazione della big data analytics può garantire possiamo citare:

  • – Capacità di analizzare rapidamente enormi volumi di dati provenienti da fonti differenti, in molte tipologie e formati.
  • Progressiva riduzione dei costi legati alla gestione dei dati, grazie alla sua ottimizzazione, con relativa possibilità di reinvestimento in attività di innovazione e new business.
  • Capacità di decisioni più informate e consapevoli per migliorare, oltre alle strategie di business, anche gli aspetti operativi e la gestione della supply chain.
  • Incremento della conoscenza relativa ai consumatori, alle loro abitudini e alle loro esigenze, per personalizzare il customer journey e incrementare l’efficienza delle conversioni.
  • Incremento dell’efficienza in merito ai processi di valutazione dei rischi sugli investimenti e sulle nuove attività, oltre alla trasformazione e alla modernizzazione di quelle esistenti.

L’ottenimento di tali benefici passa per una fase di adozione in cui vanno necessariamente affrontate alcune sfide, legate sia agli aspetti gestionali che a quelli squisitamente tecnologici. Tra le criticità da affrontare quando si adotta in maniera concreta un’attività di big data analytics, possiamo riscontrare:

  • Data quality: il trattamento di grandi volumi di dati presuppone una oggettiva complessità in termini di gestione, che potrebbe agire a discapito della data quality, che va mantenuta sugli standard commisurati alle esigenze di business. Non vanno pertanto sottovalutate le risorse umane e tecnologiche utili al raggiungimento di tale obiettivo.
  • Interoperabilità: l’analisi di varie tipologie di file presuppone l’esistenza di numerosi formati da caricare sui sistemi di gestione, con alcune oggettive complessità per quanto riguarda l’interoperabilità tra le varie applicazioni.
  • Sicurezza: a prescindere dall’efficienza operativa, le aziende devono sempre garantire il soddisfacimento delle normative e delle policy relative alla sicurezza dei dati.
  • Scelta delle tecnologie: la fase di transizione dai sistemi tradizionali a una concezione moderna dell’analisi dei dati presuppone scelte tecnologiche appropriate. Per orientarsi nelle varie soluzioni offerte dal mercato spesso le aziende ricorrono a consulenze qualificate.
  • Competenze: individuare professionisti esperti nella scienza dei dati rappresenta una delle principali criticità per le aziende, in quanto si tratta di figure molto richieste sul mercato e particolarmente onerose da coinvolgere.

Gli step del processo

La big data analytics dispone di vari framework, che hanno in comune almeno quattro step principali: data collecting, data processing, data cleaning e data analysis.

Data collecting

Si tratta di un aspetto che differisce molto a seconda della tipologia e dell’attività di ciascuna azienda. In ogni caso, la materia prima della big data analytics è costituita da dati strutturati e non strutturati provenienti da varie fonti. Le piattaforme di gestione dei dati devono quindi essere dotate di appropriati connettori per automatizzare il processo di collezione e acquisizione dei dati, per prepararli e caricarli sui sistemi di gestione come database, data lake e data warehouse.

Data processing

Una volta collezionati, i dati vanno adeguatamente preparati per essere fruibili dalle applicazioni analitiche. Il data processing rappresenta un’attività critica in funzione del volume e della varietà dei dati trattati e presuppone l’esigenza di automatizzare le sue fasi attraverso funzioni di batch processing in grado di ridurre l’intervallo di tempo necessario tra l’acquisizione e l’analisi. Un’alternativa è costituita dallo stream processing, più agile nella gestione di piccole e frequenti quantità di dati, ma mediamente più complesso ed oneroso da gestire.

Data cleaning

Il data cleaning è un processo molto importante ai fini di garantire un’adeguata data quality, assicurando la corretta formattazione del dato e la rimozione di duplicati o dati di natura non rilevante, che finirebbero soltanto per creare del rumore o degli errori nei risultati dell’analisi.

Data analysis

Rappresenta il momento in cui il dato grezzo acquisito, dopo un percorso di preparazione, viene analizzato per generare valore aggiunto in termini di informazione utile alle esigenze di business.

I metodi più diffusi sono l’analisi descrittiva, finalizzata a conoscere e descrivere un evento attraverso l’analisi dei dati storici, e l’analisi predittiva, che correla i dati e le variabili per definire modelli capaci di garantire supporto previsionale in merito ad un contesto specifico.

Nelle applicazioni di big data analytics sono sempre più diffuse tecniche di intelligenza artificiale come il machine learning e il deep learning.

Esempi e casi d’uso della big data analytics

La big data analytics è ormai utilizzata con profitto in tutti i settori di attività. Per offrire una panoramica esemplificativa, ci riferiamo ad una selezione operata da Forrester nell’ambito una serie di analisi di mercato condotte negli ultimi dieci anni per mappare l’adozione dei big data analytics nelle organizzazioni. Il lavoro ha consentito al celebre analista statunitense di individuare tre macro-gruppi di casi applicativi.

Efficienza operativa e gestione dei rischi

In questo macro-gruppo rientrano analisi di tipo predittivo e prescrittivo, finalizzate alla mitigazione dei rischi e ad una loro corretta gestione, siano essi rischi finanziari, operativi e di sicurezza.

Sicurezza e performance

Si riferisce alle applicazioni di analisi descrittiva e predittiva capaci di supportare le decisioni nei processi operativi. È il caso della manutenzione predittiva, che consente di prevenire i malfunzionamenti intervenendo soltanto se necessario, ottimizzando sensibilmente i costi rispetto alle procedure tradizionali.

Conoscenza del mercato e dei clienti

È il caso della big data analytics utilizzata per aumentare la conoscenza dei clienti a partire dai loro dati di interazione. Tale valore informativo viene utilizzato per svolgere ulteriori analisi predittive, utili a personalizzare l’offerta e fidelizzare il cliente, oltre ad alimentare la ricerca e lo sviluppo di nuove soluzioni capaci di intercettare al meglio le esigenze del mercato e rendere le aziende più competitive nei loro ambiti di riferimento.

ARGOMENTI CORRELATI
Categoria: ANALYTICS
Concept per far capire il significato del Data Management: uomo che attraverso degli ingranaggi mette in ordine dei flussi intrecciati e caotici

Data Management: cos’è e perché è necessario in azienda

Oggi più che mai i dati digitali rappresentano un vero e proprio asset, un capitale, un importante fattore economico per… Leggi tutto

Colleghi che discutono di fronte al monitor di un pc. Sullo sfondo altri colleghi che parlano

Data lake vs data warehouse: le differenze e quale scegliere

Nell’era del digitale le organizzazioni collezionano dati provenienti da varie sorgenti, con una quantità ed una varietà che vanno ben… Leggi tutto

Due ragazzi seduto alla scrivania di fronte al pc osservano lo schermo e sorridono

Data Lake: cos’è e quando utilizzarlo per l’archiviazione

La trasformazione digitale sta progressivamente aumentando il volume dei dati con cui le aziende si interfacciano ormai in tempo reale… Leggi tutto