L’analisi dei dati non è sempre stata come la intendiamo oggi, ma è frutto di molti anni di evoluzione. I primi passi risalgono all’esplosione della Business Intelligence, attività che ha aperto la strada  a questo tipo di analisi perché ha permesso agli utenti di iniziare a percepire l’importanza di osservare i propri dati e di avvalersi delle tecnologie necessarie per gestirli ed analizzarli. 

Nel tempo le cose si sono evolute moltissimo ed oggi quando si parla di “analisi dei dati” vengono subito in mente concetti come i Big Data, la Data Science, modelli previsionali, per non parlare delle architetture e tecnologie che girano attorno a questi temi. La Data Analysis è una scienza a tutti gli effetti, ed in quanto tale, oltre ad avere obiettivi e scopi specifici, segue anche una serie di regole e passaggi procedurali da cui non si può prescindere se si vuole ottenere un risultato di valore. 

Cos’è l’analisi dei dati 

L’analisi dati è intesa come tutto il processo di scoperta ed interpretazione dei dati, e di comunicazione agli utenti finali dei modelli significativi nascosti nei dati. Le data analytics permettono di trovare gli insight significativi e tutte quelle informazioni che non sarebbe possibile rilevare altrimenti, nemmeno dall’abile occhio degli esperti di dominio. 

Immagine promozionale per il whitepaper su Data Driven

Nell’ambito più ampio della Data Science, l’analisi dei dati è intesa come il processo di ispezione, pulizia, trasformazione e modellazione di dati aziendali con lo scopo di estrarre informazioni utili, non ovvie, di valore per i decisori, tali da supportare i processi decisionali e l’impostazione delle strategie aziendali in ottica data driven. 

Le applicazioni delle analisi dati si concentrano sulla ricerca e sull’uso di insight interessanti, derivati dai dati aziendali al fine di creare sistemi a supporto dei decisori per fare scelte più consapevoli ed informate. Lo scopo è infatti quello di ridurre sprechi ed errori di valutazioni dovuti a scelte sbagliate o a decisioni prese “a sentimento”, allo stesso tempo è necessario aiutare le aziende ad ottimizzare le proprie attività, ad esempio aumentando le vendite e riducendo i costi. Si tratta dei ben noti sistemi di supporto alle decisioni che ad oggi sono diffusi a macchia d’olio in ogni azienda, di qualunque settore e dimensione, che vuole migliorare le proprie performance. L’analisi dati ha molti approcci e sfaccettature proprio per adattarsi al meglio ai diversi contesti e alle specifiche necessità. 

Oggi finalmente le aziende hanno raggiunto un buon livello rispetto alla percezione del valore aggiunto che si può ottenere con l’analisi dati.  Per questo sono più propense ad investire su questo tema ed in generale è buona norma cercare di sfruttare il più possibile le informazioni derivanti dall’analisi dati per ottenere insight approfonditi: le aziende hanno bisogno infatti di rimanere costantemente aggiornate, ed hanno quindi necessità che le informazioni siano disponibili rapidamente e fruibili per figure aziendali diversificate per ruoli, competenze e skills.  

La storia della Data Analytics 

Oggi c’è una gran differenza tra parlare di “analisi dati” e parlare semplicemente di statistiche sui dati. Nonostante ciò è indubbio che la statistica sia stata l’antenata di tutto questo,in qualche modo la madre della data analytics. 

Volendo ripercorrere le prime tappe che hanno portato al punto in cui siamo oggi, possiamo fare riferimento già al 1785, anno in cui William Playfair inventò i barplot (il grafico a barre), una delle modalità di visualizzazione più semplici, ma anche più intuitive ed usate spesso ancora oggi. Successivamente nel 1812, il cartografo Charles Joseph Minard iniziò a lavorare su mappe e grafici a linea per tracciare le perdite subite dall’esercito di Napoleone nella marcia su Mosca: le sue indagini hanno evidenziato che le sconfitte francesi erano legate al freddo dell’inverno moscovita. Una deduzione abbastanza ovvia forse, ma importante per l’epoca perché non si trattava di una mera deduzione fatta “ad occhio” osservando il contesto, ma piuttosto del risultato di una prima e rudimentale analisi dei dati. Successivamente, verso fine ‘800, iniziano le “vere” evoluzioni tecnologiche: Hollerith inventa le schede perforate, e ciò è un punto di svolta perché rappresenta finalmente un modo per memorizzare tanti dati e poterli analizzare velocemente, aspetto che nel tempo diventerà un requisito fondamentale e che lo è ancora oggi, anche se le schede perforate non si usano ormai più. 100 anni dopo si inizia a parlare di database relazionali (RDB) e, di conseguenza, del linguaggio SQL (Standard Query Language) fondamentale per estrapolare dai DB i dati necessari per l’analisi, anche in vista di sistemi di analisi self-service. Da quel momento in poi le evoluzioni cambiano marcia e diventano velocissime: in pochi anni si inizia a parlare di Data Warehouse, di Business Intelligence, di Data Mining; emergono nuove figure aziendali che si dedicano soltanto alla gestione e all’analisi dei dati, il data analyst, il data scientist, il data engineer. Gli anni ‘90-’00 rappresentano un boom in questo senso, si definiscono nuovi linguaggi di programmazione, come R e Python, che nascono con lo scopo di supportare l’analisi dati e che anche oggi sono usati, ad esempio, per sviluppare modelli di Machine Learning. In seguito poi alla diffusione e alla presa di coscienza riguardo l’utilità dei Big Data, le innovazioni si affacciano al web, al cloud, ad architetture distribuite, all’IoT, a meccanismi di gestione dei dati e di orchestrazione delle analisi sempre più progrediti e specifici. 

Quali sono gli obiettivi principali 

I dati di per sé non hanno significato, sono solo numeri e parole che senza contesto non offrono nessuna informazione utile. L’analisi dei dati ha lo scopo di osservare i dati stessi in un contesto specifico, associare loro un significato, integrarli e completarli per renderli coerenti, trasformarli e “ripulirli” per eliminare il rumore ed ottenere infine un dataset descrittivo del contesto, un dataset di qualità da poter analizzare in modo approfondito con le tecniche statistiche e di mining avanzate più adatte caso per caso. 

Al giorno d’oggi abbiamo tutti i mezzi tecnologici necessari per farlo, siamo in grado di parlare con i dati, di plasmarli ed interrogarli in modo intelligente perché rispondano alle domande del business, sia riguardo l’osservazione del passato, sia il futuro cercando di prevedere risultati e comportamenti, ed agire di conseguenza. Il valore a cui si aspira deriva proprio da questo, dalla giusta scelta tecnologica ed analitica, la scelta più adatta al contesto, la più performante nel caso aziendale specifico. Albert Einstein diceva che “se si giudica un pesce dalla sua abilità di arrampicarsi sugli alberi, lui passerà tutta la sua vita a credersi stupido” e qualcosa di simile vale anche per la scelta dell’architettura, delle tecnologie, del modello con cui analizzare i dati: se non si sceglie un modello adatto al contesto il rischio è quello di valutare il tutto in modo errato. Il modello in quel caso non è “fallito”, semplicemente non è stato addestrato bene oppure proprio non è adatto a rappresentare il contesto aziendale specifico. 

Gli obiettivi che si ricercano hanno lo scopo generale di creare valore per l’azienda. Ciò è ovviamente declinabile in tanti modi, a seconda del contesto aziendale, del settore, del livello di digitalizzazione iniziale dell’azienda e del livello che invece si vuole raggiungere.  

Un nuovo modo di affrontare il mercato 

Non c’è dubbio che oggigiorno l’analisi dei dati abbia un ruolo strategico nella maggior parte delle organizzazioni e che, come tale, abbia portato un’ondata di novità e nuove aspettative. È cambiato il modo in cui vengono prese le decisioni, consapevoli, condivise, data driven e veloci. Ma è cambiato anche il modo di lavorare dei dipendenti: sono finiti i giorni in cui era normale trovare in ufficio manuali di formazione da studiare o semplicemente da consultare, adesso ci si aspetta che la forza lavoro sia subito operativa e che sia in grado di affrontare velocemente le avversità quotidiane. 

Negli ultimi anni, inoltre, è profondamente cambiata la natura del business. Questo si riflette anche su un nuovo modo di competere sul mercato e di rimanere al passo con le esigenze emergenti ricercando il metodo più adatto per creare valore ed essere rapidi nell’analisi e nell’uso dei risultati. Velocità, semplicità, mantenimento (e ottimizzazione) degli standard di qualità e sicurezza sono i focus di questo processo, e per tenerli tutti sott’occhio è importante avere a disposizione una piattaforma centralizzata per l’analisi dati e per la visualizzazione dei risultati, parte fondamentale della nuova strategia globale data driven.  

La ricerca di nuove opportunità 

Lo sfruttamento delle informazioni ricavate dai dati si riflette anche sulla possibilità di ottenere una panoramica ampia delle esigenze del mercato, e quindi anche di individuare (o creare) nuove opportunità. Parliamo di analisi predittive, di Machine Learning, ed anche di analisi descrittive avanzate che fanno emergere informazioni inattese e scoprire modelli di dati nascosti. 

Come viene condotta l’analisi dei dati 

Abbiamo parlato dell’analisi dati come di una scienza e in quanto tale, anche se a seconda del contesto sono tante le variabili che si devono adattare, possiamo delineare un procedimento da seguire in linea con il metodo scientifico di Galileo per la verifica delle ipotesi in 4 step: 

1) Definizione gli obiettivi 

Ogni analisi dati deve tenere presente qual è lo specifico scopo che si vuole raggiungere. Certo, vogliamo ottimizzare le risorse/ridurre i consumi, però in ogni realtà aziendale questo si traduce in un modo diverso: ad esempio in ambito manifatturiero/produttivo significa ottimizzare il ciclo di produzione cercando, grazie alla manutenzione predittiva, di prevedere gli errori e problemi per minimizzare i fermi macchina. Nel settore marketing e pubblicitario ottimizzare le risorse significa impostare campagne personalizzate, quindi concentrare le attività verso il profilo di clienti che si pensa più interessato.  

Se non si delinea in partenza lo scopo dell’analisi che si vuole fare si rischia di impostarla nel modo sbagliato, e successivamente poi fare in modo che diventi profittevole è decisamente difficile. Tutto questo provoca risultati fuorvianti, perdita di tempo e risorse, come quando si imposta sul navigatore una destinazione sbagliata: non è il navigatore che sbaglia, il viaggio è di certo ottimizzato e preciso, solo non porta dove voglio arrivare. 

La domanda a cui si deve cercare risposta è “Cosa voglio dimostrare?”, senza aver paura di osare: più articolata e “difficile” sarà la domanda, più sarà interessante il cammino per cercare di rispondere.  

Ma per definire l’obiettivo non basta individuarlo: l’analisi dati consiste non solo nel definire cosa fare, ma anche perché farlo, a chi è rivolto e come interpretare quanto si è fatto. In quest’ottica altre domande che può aiutare tenere in considerazione sono: 

  • -Chi è il consumatore dell’analisi che sto implementando? 
  • -Cosa ha bisogno di fare? 
  • -Quali sono i vincoli che devo soddisfare? 

Da questa prima fase ne uscirà una lista di obiettivi sicuramente lunga ed ambiziosa, ed è questo il momento di osservare gli obiettivi individuati, selezionare quali domande sono davvero interessanti ed utili, e soprattutto quali hanno bisogno di un’analisi dei dati per cercare risposta.  

2) Elaborazione delle risposte 

È in questa fase che si delineano quali analisi dati è necessario applicare e sperimentare per rispondere alle domande e alle esigenze di business. Presupposto fondamentale è, chiaramente, la presenza di dati da analizzare e di un’accurata fase di data preparation, ma non dobbiamo dimenticare che è in questa fase che le architetture e le tecnologie di delineano, si scelgono i tool da usare e i modelli algoritmici da sperimentare. 

Scendere nei dettagli di come si sviluppa tecnicamente questa fase prevede lunghe dissertazioni e tecnicismi, rimandiamo quindi ad articoli più specifici per approfondire il tema, ad esempio per scoprire come funziona la Data Augmentation per risolvere i casi in cui non ho dati a sufficienza per iniziare le analisi, oppure capire come funzionano e quali sono le applicazioni più utili per algoritmi di Machine Learning

3) Passaggio delle informazioni agli utenti 

I dati che risultano dalle analisi sono spesso molto numerosi, pieni di informazioni, ma non tutte queste sono utili all’utente per raggiungere il suo scopo specifico. È importante tenere questo di conto anche nelle fasi precedenti, ma adesso a maggior ragione selezionare le informazioni utili e, soprattutto, scegliere il formato grafico migliore per renderle disponibili e comprensibili all’utente è fondamentale. 

Presentare i risultati dell’analisi è un’arte: parliamo di Visual Data Storytelling proprio perché per rispondere in modo chiaro ed intuitivo ad una specifica domanda, cercando al contempo di creare interesse e spingere l’utente ad indagare ulteriormente e cercare nuovi sbocchi, è un aiuto importante creare una “storia” sui dati, un flusso di informazioni che spiega e da contesto anche agli utenti di business che non vogliono (o magari non sanno) destreggiarsi tra troppi tecnicismi. 

4) Interpretazione dei risultati 

Questo è il passaggio in cui davvero si crea valore: i risultati delle analisi in fondo sono solo numeri e parole finché non vengono calate in un contesto specifico ed interpretate ognuna col il proprio significato. Cosa vuol dire 50? È un’età? Una temperatura? La spesa per l’acquisto di un oggetto? La distanza tra due località? Delineare il significato dei dati nel contesto è fondamentale per comprendere se si tratta di un dato “buono” oppure se è l’indicatore di una situazione preoccupante. In questa fase l’assistenza degli esperti di dominio è fondamentale: è qui che i dati diventano interessanti, è adesso che le informazioni si trasformano in valore aggiunto.

ARGOMENTI CORRELATI
Categoria: ANALYTICS
Concept per far capire le potenzialità dei Big Data Analytics: esempi di cruscotti che restituiscono informazioni utili

Big Data Analytics: cos’è e perché è importante

Quando si parla di big data analytics ci si riferisce, solitamente, all’analisi avanzata di grandi volumi di dati. Prendere decisioni… Leggi tutto

Concept per far capire il significato del Data Management: uomo che attraverso degli ingranaggi mette in ordine dei flussi intrecciati e caotici

Data Management: cos’è e perché è necessario in azienda

Oggi più che mai i dati digitali rappresentano un vero e proprio asset, un capitale, un importante fattore economico per… Leggi tutto

Colleghi che discutono di fronte al monitor di un pc. Sullo sfondo altri colleghi che parlano

Data lake vs data warehouse: le differenze e quale scegliere

Nell’era del digitale le organizzazioni collezionano dati provenienti da varie sorgenti, con una quantità ed una varietà che vanno ben… Leggi tutto