La disponibilità di enormi volumi di informazioni rappresenta la spinta rivoluzionaria verso l’innovazione dell’impresa moderna, capace di disegnare strategie e processi data-driven ovvero basati sull’osservazione delle analisi. Se il fenomeno della digitalizzazione sempre più pervasivo ha ormai da tempo evidenziato la necessità competitiva di sviluppare metodologie e piattaforme analitiche, oggi stiamo assistendo a un ulteriore balzo verso l’innovazione passando dalla Business Intelligence (che permette di esaminare lo storico dell’azienda per comprendere in profondità un evento) agli Advanced Analytics (che processando i Big Data forniscono indicazioni sugli scenari futuri, suggeriscono le azioni da intraprendere e innescano automatismi di processo, grazie all’acquisizione di dati in real-time).

 

Dalla Business Intelligence agli Advanced Analytics

 

Il passaggio è importante. Si tratta di andare oltre le vecchie analisi descrittive (che appunto esplorano e chiariscono un contesto o un fenomeno) e progredire verso logiche di:

  • – predizione, che permettono di formulare ipotesi;
  • – prescrizione, che evidenziano le possibili soluzioni in ottica preventiva, migliorativa e reattiva;
  • – automazione, in cui la stessa intelligenza artificiale intraprende azioni in risposta allo scenario esaminato (ad esempio, inviando input di regolazione a un macchinario industriale connesso in rete per evitare un guasto o supportare un determinato tipo di produzione, oppure gestendo autonomamente la proposta di prodotti sulle pagine internet in funzione della tipologia di utenti).

 

Su quali tecniche si basa questa evoluzione?

 

L’evoluzione è possibile grazie a tecniche di machine learning (l’apprendimento automatico permette a un sistema non programmato a monte di imparare a svolgere dei task dall’ esperienza sul campo), deep learning (le reti neurali artificiali consentono di scendere a strati di conoscenza sempre più profondi, interconnessi tra loro) e real-time analytics (gli algoritmi di calcolo sono alimentati dinamicamente dai dati provenienti in tempo reale da diverse fonti, restituendo risultati più accurati).

Si pensi ad esempio alle applicazioni in campo industriale: un macchinario/robot dotato di sensori intelligenti (sensori di temperatura, pressione, consumo energetico…) trasferisce all’ algoritmo una serie di parametri di controllo essenziali (relativi al suo funzionamento e all’efficienza produttiva, ad esempio in termini di numero di pezzi lavorati o la quantità di scarti). Un’analisi descrittiva offrirà una serie di report sulle performance conseguite, mentre un esame predittivo potrà valutare i risultati ottenibili in una determinata situazione, osservando la variazione di alcuni parametri di riferimento, oppure suggerendo le condizioni migliori per ottimizzare le prestazioni. L’algoritmo potrà anche predire, ad esempio, i sovraccarichi, quindi l’eventualità di rotture, avvertendo per tempo ed eventualmente prescrivendo gli accorgimenti da adottare per scongiurare il rischio. I prognostici sulle performance in condizioni particolari (massimo carico, periodo estivo…) possono essere corretti in tempo reale grazie all’acquisizione di dati contestuali (ad esempio, le alterazioni dell’ambiente di produzione).

 

Il mercato spinge verso gli Advanced Analytics

 

Si tratta di applicazioni futuribili o di scenari analitici già sviluppati? Sicuramente gli Advanced Analytics sono in una fase iniziale di adozione, ma la loro popolarità e richiesta sono destinate a esplodere.

In base alle stime rilasciate da IDC, nel 2020 le soluzioni di advanced e predictive analytics genereranno un fatturato di 1.150 milioni di euro a livello europeo. Secondo l’Osservatorio del Politecnico di Milano, il mercato della Big Data Analytics ha registrato una crescita media del 21% ogni dodici mesi negli ultimi tre anni (nel 2018 il settore valeva 1,393 miliardi di euro, guadagnando 26 punti percentuali rispetto al 2017). Tuttavia, almeno secondo le statistiche nazionali, permane un divario profondo tra grandi imprese (che coprono l’88% della spesa complessiva) e le Pmi (12%).

Inoltre, a uno sguardo più approfondito, si nota ancora una certa immaturità nei modelli di adozione: la maggioranza delle aziende adotta soluzioni di tipo descrittivo, ma si stanno aprendo sperimentazioni sempre più frequenti in ambito di predictive, prescriptive e automated analytics. Il 62% delle grandi aziende necessita di figure competenti in ambito machine/deep learning e oltre un terzo ha già introdotto specialisti nell’organico. L’11% del campione ha costruito infrastrutture per l’analisi in streaming (gli algoritmi sono continuamene alimentati da nuovi flussi di informazioni in tempo reale), mentre il 33% ha sviluppato applicazioni in near-real-time, con una frequenza di aggiornamento dati sotto l’ora.

Siamo ancora agli inizi,  ma la strada è evidentemente tracciata: IDC sostiene che il 75% degli sviluppatori includerà meccanismi di cognitive computing, machine learning o intelligenza artificiale in almeno un’applicazione. Inoltre, la tendenza sarà sempre più verso una base di utenza allargata: non soltanto data scientist, ma anche le persone di business saranno in grado di utilizzare le soluzioni analitiche grazie alle semplificazioni data visualization.

 

New call-to-action

Approfondimenti da BNext:

Eyes4Innovation, la rete che ti semplifica la vita

La rete ti semplifica la vita. Ecco la massima sintesi del motivo per cui è nata Eyes4Innovation, ed anche lo scopo ultimo perseguito dalle aziende fondatrici. Scopri com’è andato l’evento di presentazione.

Dataiku e Data Exploration: chi è il miglior detective della serie “Scooby-doo”?

Dataiku e la data exploration, il primo passo per impostare i progetti nel modo più adatto è esplorare i dati e imparare a conoscerli.

Dataiku viene lanciato in AWS Marketplace

Tutti i clienti AWS potranno accedere a Dataiku e sfruttare la potenza dell’AI: infatti Dataiku adesso è disponibile sul marketplace AWS.

Denodo e la data virtualization a supporto di Machine Learning e Data Science

Il Machine Learning e la Data science sono strettamente legate alla data virtualization. denodo è il tool ideale individuato da BNova

Dataiku: le novità della release 9

Dataiku, tante novità. Le energie si concentrano sul processo di trasformazione e analisi del dato e sulla collaborazione con altri tool, come Tableau

Vertica apre le porte alla Data Science

La Data Science, in termini di supporto decisionale alle aziende, ha un potenziale enorme, ma è una materia molto ampia e di carattere sperimentale: non necessariamente l’algoritmo migliore per un settore si rivela buono anche in realtà aziendali...

Dataiku: Intelligenza Artificiale per le case farmaceutiche

Oltre il 60% delle aziende farmaceutiche sono state identificate come “principianti” quando si parla della loro maturità riguardo l’AI.

Data Science Tools: la cassetta degli attrezzi dei team di Data Scientist

Strumenti tecnologici, piattaforme, linguaggi di programmazione, tools di vario genere rappresentano elementi importanti, gli “attrezzi del mestiere” per i Data Scientist. Ecco alcuni dei linguaggi e dei tools che solitamente non mancano all’interno di un team di Data Scientist.

Data Scientist, chi sono e cosa fanno per aiutare le aziende

Oggi i dati rappresentano uno degli asset più critici ed importanti per un’azienda (e non solo), tant’è che ormai si parla dei dati come del nuovo petrolio nell’economia dell’informazione e della conoscenza. Chi lavora sui dati e con i dati gode di un grande vantaggio. Ma chi sono davvero i Data Scientist e cosa fanno concretamente per aiutare le aziende?

Dataiku: i consigli per scegliere il giusto progetto di Data Science

Con decine di potenziali use case ma risorse limitate, è importante dare priorità ai progetti che hanno sia un alto valore di business che un’alta probabilità di successo. I consigli di Dataiku