La disponibilità di enormi volumi di informazioni rappresenta la spinta rivoluzionaria verso l’innovazione dell’impresa moderna, capace di disegnare strategie e processi data-driven ovvero basati sull’osservazione delle analisi. Se il fenomeno della digitalizzazione sempre più pervasivo ha ormai da tempo evidenziato la necessità competitiva di sviluppare metodologie e piattaforme analitiche, oggi stiamo assistendo a un ulteriore balzo verso l’innovazione passando dalla Business Intelligence (che permette di esaminare lo storico dell’azienda per comprendere in profondità un evento) agli Advanced Analytics (che processando i Big Data forniscono indicazioni sugli scenari futuri, suggeriscono le azioni da intraprendere e innescano automatismi di processo, grazie all’acquisizione di dati in real-time).

 

Dalla Business Intelligence agli Advanced Analytics

 

Il passaggio è importante. Si tratta di andare oltre le vecchie analisi descrittive (che appunto esplorano e chiariscono un contesto o un fenomeno) e progredire verso logiche di:

  • – predizione, che permettono di formulare ipotesi;
  • – prescrizione, che evidenziano le possibili soluzioni in ottica preventiva, migliorativa e reattiva;
  • – automazione, in cui la stessa intelligenza artificiale intraprende azioni in risposta allo scenario esaminato (ad esempio, inviando input di regolazione a un macchinario industriale connesso in rete per evitare un guasto o supportare un determinato tipo di produzione, oppure gestendo autonomamente la proposta di prodotti sulle pagine internet in funzione della tipologia di utenti).

 

Su quali tecniche si basa questa evoluzione?

 

L’evoluzione è possibile grazie a tecniche di machine learning (l’apprendimento automatico permette a un sistema non programmato a monte di imparare a svolgere dei task dall’ esperienza sul campo), deep learning (le reti neurali artificiali consentono di scendere a strati di conoscenza sempre più profondi, interconnessi tra loro) e real-time analytics (gli algoritmi di calcolo sono alimentati dinamicamente dai dati provenienti in tempo reale da diverse fonti, restituendo risultati più accurati).

Si pensi ad esempio alle applicazioni in campo industriale: un macchinario/robot dotato di sensori intelligenti (sensori di temperatura, pressione, consumo energetico…) trasferisce all’ algoritmo una serie di parametri di controllo essenziali (relativi al suo funzionamento e all’efficienza produttiva, ad esempio in termini di numero di pezzi lavorati o la quantità di scarti). Un’analisi descrittiva offrirà una serie di report sulle performance conseguite, mentre un esame predittivo potrà valutare i risultati ottenibili in una determinata situazione, osservando la variazione di alcuni parametri di riferimento, oppure suggerendo le condizioni migliori per ottimizzare le prestazioni. L’algoritmo potrà anche predire, ad esempio, i sovraccarichi, quindi l’eventualità di rotture, avvertendo per tempo ed eventualmente prescrivendo gli accorgimenti da adottare per scongiurare il rischio. I prognostici sulle performance in condizioni particolari (massimo carico, periodo estivo…) possono essere corretti in tempo reale grazie all’acquisizione di dati contestuali (ad esempio, le alterazioni dell’ambiente di produzione).

 

Il mercato spinge verso gli Advanced Analytics

 

Si tratta di applicazioni futuribili o di scenari analitici già sviluppati? Sicuramente gli Advanced Analytics sono in una fase iniziale di adozione, ma la loro popolarità e richiesta sono destinate a esplodere.

In base alle stime rilasciate da IDC, nel 2020 le soluzioni di advanced e predictive analytics genereranno un fatturato di 1.150 milioni di euro a livello europeo. Secondo l’Osservatorio del Politecnico di Milano, il mercato della Big Data Analytics ha registrato una crescita media del 21% ogni dodici mesi negli ultimi tre anni (nel 2018 il settore valeva 1,393 miliardi di euro, guadagnando 26 punti percentuali rispetto al 2017). Tuttavia, almeno secondo le statistiche nazionali, permane un divario profondo tra grandi imprese (che coprono l’88% della spesa complessiva) e le Pmi (12%).

Inoltre, a uno sguardo più approfondito, si nota ancora una certa immaturità nei modelli di adozione: la maggioranza delle aziende adotta soluzioni di tipo descrittivo, ma si stanno aprendo sperimentazioni sempre più frequenti in ambito di predictive, prescriptive e automated analytics. Il 62% delle grandi aziende necessita di figure competenti in ambito machine/deep learning e oltre un terzo ha già introdotto specialisti nell’organico. L’11% del campione ha costruito infrastrutture per l’analisi in streaming (gli algoritmi sono continuamene alimentati da nuovi flussi di informazioni in tempo reale), mentre il 33% ha sviluppato applicazioni in near-real-time, con una frequenza di aggiornamento dati sotto l’ora.

Siamo ancora agli inizi,  ma la strada è evidentemente tracciata: IDC sostiene che il 75% degli sviluppatori includerà meccanismi di cognitive computing, machine learning o intelligenza artificiale in almeno un’applicazione. Inoltre, la tendenza sarà sempre più verso una base di utenza allargata: non soltanto data scientist, ma anche le persone di business saranno in grado di utilizzare le soluzioni analitiche grazie alle semplificazioni data visualization.

 

New call-to-action

Approfondimenti da BNext:

A cosa serve la Data Science?

L’analisi dei dati è in generale una materia molto ampia e con una storia che rimanda indietro di diversi anni da oggi. Si inizia a parlare di analisi dati già alla fine del 1700 con le prime visualizzazioni grafiche e l’evoluzione di questa materia non solo negli...

Churn Strategy: gli step per impostarla al meglio minimizzando il Churn Rate

Churn analysis e churn rate sono due concetti strettamente connessi: l’analisi degli abbandoni (churn analysis) è quella branca della Data Science attraverso cui si cerca di prevedere quali clienti hanno maggiori probabilità di abbandonare l’azienda, cosa che si...

I 6 comandamenti per un Data Storytelling di successo 

Letteralmente il Data Storytelling è l’arte del raccontare una storia attraverso i dati. Si tratta dell’evoluzione della Data Visualization, l’ultimo step di quel lungo processo analitico che ha lo scopo di trasformare i dati provenienti dalle diverse origini di...

Cosa sono i Big Data e come vengono utilizzati?

I Big Data sono ormai entrati a far parte del mercato tecnologico globale, ma spesso questa definizione viene utilizzata senza aver chiaro di cosa si tratta o di quali sono le accortezze e le tecnologie necessarie per poterli sfruttare al meglio nel loro valore...

Chi è e quanto guadagna un Data Engineer?

Fino a qualche tempo fa occuparsi dell’analisi dati in azienda voleva dire fare BI, e non era difficile trovare figure che si occupassero di questo. Nell’ultimo decennio, invece, l’analisi dati si è evoluta in modo esponenziale, si inizia a parlare di Data Science,...

Eyes4Innovation, la rete che ti semplifica la vita

La rete ti semplifica la vita. Ecco la massima sintesi del motivo per cui è nata Eyes4Innovation, ed anche lo scopo ultimo perseguito dalle aziende fondatrici. Scopri com’è andato l’evento di presentazione.

Dataiku e Data Exploration: chi è il miglior detective della serie “Scooby-doo”?

Dataiku e la data exploration, il primo passo per impostare i progetti nel modo più adatto è esplorare i dati e imparare a conoscerli.

Dataiku viene lanciato in AWS Marketplace

Tutti i clienti AWS potranno accedere a Dataiku e sfruttare la potenza dell’AI: infatti Dataiku adesso è disponibile sul marketplace AWS.

Denodo e la data virtualization a supporto di Machine Learning e Data Science

Il Machine Learning e la Data science sono strettamente legate alla data virtualization. denodo è il tool ideale individuato da BNova

Dataiku: le novità della release 9

Dataiku, tante novità. Le energie si concentrano sul processo di trasformazione e analisi del dato e sulla collaborazione con altri tool, come Tableau