La disponibilità di enormi volumi di informazioni rappresenta la spinta rivoluzionaria verso l’innovazione dell’impresa moderna, capace di disegnare strategie e processi data-driven ovvero basati sull’osservazione delle analisi. Se il fenomeno della digitalizzazione sempre più pervasivo ha ormai da tempo evidenziato la necessità competitiva di sviluppare metodologie e piattaforme analitiche, oggi stiamo assistendo a un ulteriore balzo verso l’innovazione passando dalla Business Intelligence (che permette di esaminare lo storico dell’azienda per comprendere in profondità un evento) agli Advanced Analytics (che processando i Big Data forniscono indicazioni sugli scenari futuri, suggeriscono le azioni da intraprendere e innescano automatismi di processo, grazie all’acquisizione di dati in real-time).

Dalla Business Intelligence agli Advanced Analytics

Il passaggio è importante. Si tratta di andare oltre le vecchie analisi descrittive (che appunto esplorano e chiariscono un contesto o un fenomeno) e progredire verso logiche di:

  • predizione, che permettono di formulare ipotesi;
  • prescrizione, che evidenziano le possibili soluzioni in ottica preventiva, migliorativa e reattiva;
  • automazione, in cui la stessa intelligenza artificiale intraprende azioni in risposta allo scenario esaminato (ad esempio, inviando input di regolazione a un macchinario industriale connesso in rete per evitare un guasto o supportare un determinato tipo di produzione, oppure gestendo autonomamente la proposta di prodotti sulle pagine internet in funzione della tipologia di utenti).

Su quali tecniche si basa questa evoluzione?

L’evoluzione è possibile grazie a tecniche di machine learning (l’apprendimento automatico permette a un sistema non programmato a monte di imparare a svolgere dei task dall’esperienza sul campo), deep learning (le reti neurali artificiali consentono di scendere a strati di conoscenza sempre più profondi, interconnessi tra loro) e real-time analytics (gli algoritmi di calcolo sono alimentati dinamicamente dai dati provenienti in tempo reale da diverse fonti, restituendo risultati più accurati).

Si pensi ad esempio alle applicazioni in campo industriale: un macchinario/robot dotato di sensori intelligenti (sensori di temperatura, pressione, consumo energetico…) trasferisce all’algoritmo una serie di parametri di controllo essenziali (relativi al suo funzionamento e all’efficienza produttiva, ad esempio in termini di numero di pezzi lavorati o la quantità di scarti). Un’analisi descrittiva offrirà una serie di report sulle performance conseguite, mentre un esame predittivo potrà valutare i risultati ottenibili in una determinata situazione, osservando la variazione di alcuni parametri di riferimento, oppure suggerendo le condizioni migliori per ottimizzare le prestazioni. L’algoritmo potrà anche predire, ad esempio, i sovraccarichi, quindi l’eventualità di rotture, avvertendo per tempo ed eventualmente prescrivendo gli accorgimenti da adottare per scongiurare il rischio. I prognostici sulle performance in condizioni particolari (massimo carico, periodo estivo…) possono essere corretti in tempo reale grazie all’acquisizione di dati contestuali (ad esempio, le alterazioni dell’ambiente di produzione).

Il mercato spinge verso gli Advanced Analytics

Si tratta di applicazioni futuribili o di scenari analitici già sviluppati? Sicuramente gli Advanced Analytics sono in una fase iniziale di adozione, ma la loro popolarità e richiesta sono destinate a esplodere.

In base alle stime rilasciate da IDC, nel 2020 le soluzioni di advanced e predictive analytics genereranno un fatturato di 1.150 milioni di euro a livello europeo. Secondo l’Osservatorio del Politecnico di Milano, il mercato della Big Data Analytics ha registrato una crescita media del 21% ogni dodici mesi negli ultimi tre anni (nel 2018 il settore valeva 1,393 miliardi di euro, guadagnando 26 punti percentuali rispetto al 2017). Tuttavia, almeno secondo le statistiche nazionali, permane un divario profondo tra grandi imprese (che coprono l’88% della spesa complessiva) e le Pmi (12%).

Inoltre, a uno sguardo più approfondito, si nota ancora una certa immaturità nei modelli di adozione: la maggioranza delle aziende adotta soluzioni di tipo descrittivo, ma si stanno aprendo sperimentazioni sempre più frequenti in ambito di predictive, prescriptive e automated analytics. Il 62% delle grandi aziende necessita di figure competenti in ambito machine/deep learning e oltre un terzo ha già introdotto specialisti nell’organico. L’11% del campione ha costruito infrastrutture per l’analisi in streaming (gli algoritmi sono continuamene alimentati da nuovi flussi di informazioni in tempo reale), mentre il 33% ha sviluppato applicazioni in near-real-time, con una frequenza di aggiornamento dati sotto l’ora.

Siamo ancora agli inizi, insomma, ma la strada è evidentemente tracciata: IDC sostiene che il 75% degli sviluppatori includerà meccanismi di cognitive computing, machine learning o intelligenza artificiale in almeno un’applicazione. Inoltre, la tendenza sarà sempre più verso una base di utenza allargata: non soltanto data scientist, ma anche le persone di business saranno in grado di utilizzare le soluzioni analitiche grazie alle semplificazioni data visualization.

New call-to-action