Costruire una solida cultura del dato significa rivedere le strategie, i modelli e le attività decisionali ed operative guardando alla Data Science non come un “esercizio di stile” ma come un nuovo “modus operandi” per prendere decisioni rapide e corrette e minimizzare i rischi in contesti e mercati sempre più dinamici e volatili. Ne parliamo con Daniele Dall’Asta, Sales Director di BNova

 

La cultura del dato tra presente e futuro, tra falsi miti e realtà: la visione di BNova.

L’intervista

Boldrini: Qual è secondo te oggi l’approccio al dato da parte delle aziende?

Dall’Asta: Da anni ci muoviamo in più settori e nel corso di questi anni ho personalmente avuto modo di “tastare il polso” in svariate aziende, diverse sia per business sia per dimensione; in BNova siamo “osservatori competenti”. Detto questo, credo che la gran parte delle aziende stia prendendo coscienza della quantità di dati che esse producono, o con cui vengono in contatto, soprattutto di quanto viene non considerato o addirittura “non conservato” senza trarne alcun valore. L’approccio che vedo ora nelle aziende è orientato ad un percorso virtuoso di consapevolezza del valore dei dati… punto di partenza per qualsiasi percorso virtuoso orientato ad una strategia data driven.

  

Boldrini: C’è però una sorta di visione del dato come “bacchetta magica”, secondo la tua visione come si superano i falsi miti?

Dall’Asta: Le aziende sono meccanismi complessi che basano le proprie scelte (strategiche, tattiche e operative) su diversi fattori quali ad esempio le proprie competenze specifiche, la conoscenza del mercato, il valore percepito del proprio prodotto o servizio, il valore riconosciuto al proprio cliente.

Questi fattori devono essere sempre più relativizzati per permettere una critica oggettiva; le organizzazioni devono cioè essere in grado di eliminare, il più possibile, i cosiddetti bias cognitivi (ad esempio quelli chiamati “confirmation bias” che stanno ad indicare la tendenza a sovra-ponderare gli elementi che confermano la correttezza di una propria idea o decisione).

Questo percorso, di osservazione e comprensione, deve essere alimentato/aiutato con un approccio data driven che comprende l’importanza di utilizzare i dati per prendere ogni tipo di decisione, rendendoli disponibili a chi ne ha bisogno quando ne ha bisogno e favorendo la collaborazione e l’inter funzionalità tra i “data professional” e tutte le aree aziendali.

Le persone sono evidentemente centrali in questo approccio… perché a loro è chiesto di assumersi le responsabilità aziendali e di raggiungere gli obiettivi strategici, tattici e operativi.

Per costruire la pozione magica è necessario un corretto mix di dati, tecnologia e organizzazione… con il corretto innesco degli obiettivi strategici.

 

Boldrini: Ma cosa significa davvero “cultura del dato”? Perché è fondamentale questo approccio e, soprattutto, perché deve essere parte naturale di tutti i processi ed i livelli aziendali, non solo quindi del top management?

Dall’Asta: Cultura del dato significa un cambio di approccio per le aziende; se proviamo a portare a terra il concetto, possiamo definire la cultura del dato come tutto l’occorrente per la formazione delle risorse al fine di raggiungere la consapevolezza che i dati possono supportare le decisioni operative e di business in modo efficace ed efficiente.

L’importanza della cultura del dato nasce dal mondo che cambia… l’evoluzione dei mercati (pensiamo a quanta pressione devono subire i processi produttivi a causa delle repentine variazioni degli ordini) non permette più di prendere decisioni basate solo sull’esperienza della tradizione o della capacità del singolo manager… è necessario sempre più l’osservazione del mondo che cambia attraverso la raccolta e la comprensione dei dati sia interni sia esterni all’azienda.

Se, ad esempio, prendessimo il processo di manutenzione che è cruciale in tutti i sistemi soggetti a guasti o degradazione, in particolare nelle attività manifatturiere, potremmo osservare che i costi di manutenzione raggiungono, a seconda della specificità del prodotto, dal 15%  fino al 40% del costo di produzione. Nella piena evoluzione delle organizzazioni data drive si stanno diffondendo dei metodi di manutenzione che consentono di effettuare interventi più efficaci che, massimizzando l’utilizzo dei componenti nella loro vita utile, riducono i costi operativi e i tempi di inattività. Tali metodi sono identificati con la categoria manutenzione predittiva (tramite algoritmi di Machine Learning) e includono diverse tecnologie innovative, come l’IoT per la diffusione dei sensori che monitorano le macchine e l’AI (intelligenza artificiale) che fornisce gli algoritmi per interpretare i dati raccolti.

Questi dati, se correttamente diffusi in azienda, non solo permettono di essere più economici e rapidi nel processo di manutenzione, ma possono essere di supporto a tutta la filiera del procurement (per gestire al meglio gli acquisti dei ricambi e non avere costosi magazzini) o al plant manager che è in grado di gestire in modo ottimale i carichi di lavoro.

Ecco… osservare i dati e determinare le reazioni non è un esercizio filosofico ma un importante vantaggio di business.

 

Boldrini: Questa cultura implica un ripensamento (o un “arricchimento”) delle competenze. E chi non le ha in azienda… è spacciato?

Dall’Asta: Le competenze, in qualsiasi settore e per qualsiasi business, definiscono il grado di competitività delle aziende. Portando sul nostro campo la questione posso dire che per arrivare ad avere competenze sui dati si deve affrontare un percorso articolato. Un professionista in questo ambito, ad esempio un data scientist deve avere molte competenze…  matematica, fisica, ingegneria del software, sviluppo di codice, machine learning, se parliamo degli hard skills… ma anche approccio progettuale orientato all’efficienza economica, capacità di interpretare gli obiettivi strategici e capacità di esporre i risultati ottenuti su diversi tavoli aziendali, se parliamo di soft skills.

Sono tante e io credo che una varietà di caratteristiche di questo tipo si possano trovare, ed esaltare, più che in un singolo individuo in un gruppo multidisciplinare; credo che le “competenze in ambito data science” possano trovare il proprio apice in presenza di un gruppo coeso alla cui base ci siano competenze multidisciplinari, flessibilità e concretezza.

 

Boldrini: Tra le competenze ci sono anche quelle legate alle tecnologie, oggi è difficile districarsi nel vasto e variegato panorama dell’offerta… ci si perde! Cosa potete fare voi per le aziende?

Dall’Asta: Le attuali tecnologie sono decisamente diverse da quelle di qualche tempo fa. Se pensiamo all’inizio dell’epopea della business intelligence avevamo 4 o 5 tecnologie per la gestione dei dati e un numero simile come strumento di data visualization. La scelta era decisamente vincolata ad una offerta limitata.

Ora ci troviamo di fronte ad una situazione decisamente più emozionante con tantissime soluzioni sia in ambiti tradizionali (gestione del dato) sia in ambiti innovativi (data science collaboration) che hanno ribaltato il tavolo di confronto con prestazioni elevate, strutture aperte all’integrazione e al cloud e prezzi interessanti anche per le PMI.

La bellezza di questo momento è, come accade per noi di BNova, conoscere queste nuove tecnologie e, essendo tipicamente consulenti e partner non schierati, definire il corretto ed equilibrato mix di tecnologie per le nostre aziende clienti.

Il successo delle iniziative rivolte alle nuove piattaforme nasce nella proprio dalla capacità di individuare il corretto insieme di tecnologie e competenze per dare garanzia ai propri clienti di essere tranquilli per il business del futuro.

  

Boldrini: Se volessimo guardare dentro alla palla di cristallo, come evolverà secondo te l’approccio al dato in futuro? A cosa devono “prepararsi” le aziende?

Dall’Asta: Io credo fortemente che le aziende, anche se con un po’ di ritardo in partenza, stiano facendo passi importanti verso le tecnologie innovative rivolte alle piattaforme big data e alle analisi basate sul machine learning. Soprattutto in questo campo credo che avremo modo di toccare con mano cambiamenti basati su tre fronti:

 – l’interazione con i sistemi sarà sempre più orientata alla semplicità e all’interazione tra uomo e macchina… dai CoBot in grado di apprendere dagli esempi dei capi officina agli advanced analytics che risponderanno direttamente alle domande dei manager;

– Explainable AI: man mano che si espande, il campo dell’intelligenza artificiale rischia di diventare complesso e poco comprensibile. Ma gli utenti vogliono e devono capire come ragiona un algoritmo per valutare i risultati e guadagnare la fiducia su questi… In questo ambito sta diventando centrale il concetto di Explainable Artificial Intelligence che deve generare modelli spiegabili senza dover fare a meno delle elevate prestazioni di apprendimento;

– il terzo fronte è l’utilizzo dei modelli di ML in modo pervasivo sui tutti i processi industriali (potremmo parlare di riutilizzo virtuoso). I singoli risultati saranno sempre meno organizzati a silos ma saranno sorgenti dati per una rete di algoritmi volta a creare un sistema di automazione industriale sempre più autonoma.

Sarà un futuro decisamente molto interessante.

Approfondimenti da BNext:

Transfer learning: cos’è, i modelli e quando utilizzarlo

Lo sviluppo legato all’intelligenza artificiale coinvolge un’ampia varietà di metodi e tecniche, che possono valorizzare l’abilità di riutilizzare in maniera corretta ed efficiente il lavoro precedentemente svolto. Tale prospettiva viene in particolar modo enfatizzata...

Digital twin: cos’è e come funziona un gemello digitale

I digital twin sono una delle espressioni più affascinanti della trasformazione digitale, in particolare quella che fa riferimento al paradigma del 4.0, sia in ambito industriale che in altre applicazioni civili. Il concetto su cui si basa la tecnologia risalirebbe...

Data Lineage: come assicurarsi qualità e integrità dei dati

Tracciare i dati attraverso il loro ciclo di vita è un tema di valenza strategica. Perché una corretta Data Lineage ci garantisce l’accuratezza e l’integrità dei dati?

Deep learning: cos’è e quali le applicazioni 

Nell’ampio vocabolario dell’intelligenza artificiale c’è una tecnica sempre più diffusa che promette di affrontare i problemi più complessi: il deep learning. Grazie all’impiego delle reti neurali profonde, il deep learning consente di correlare i dati con una...

Machine learning e deep learning: quali le differenze

Machine learning (ML) e deep learning (DL) sono termini sempre più ricorrenti nel vocabolario tecnologico, oltre ad essere sempre più utilizzate nelle applicazioni enterprise e mainstream. Prima di entrare nel merito, per comprendere in cosa consistono e cosa le...

Dataiku: cosa c’è da sapere sulla nuova release

Le novità più importanti della release 11.0 e 11.1.0 spiegate dal nostro data scientist Emiliano Fuccio

ETL, il significato di Extract, Transform, Load: cos’è e a cosa serve

I dati vengono ormai generati con un flusso incessante, in ogni singolo istante, da miliardi di dispositivi interconnessi in tutto il mondo. Ma come è possibile estrarre valore da questa straordinaria risorsa digitale? Il paradigma Big Data, gli Advanced Analytics e...

Data ingestion: significato, esempi e vantaggi 

La data ingestion è una tecnologia molto importante nell’aiutare le organizzazioni a gestire un volume di dati sempre più ingente e complesso, anche per via della sua straordinaria eterogeneità. Se ben implementata, la data ingestion può infatti generare un...

Le differenze tra intelligenza artificiale debole e forte

L’intelligenza artificiale è una tecnologia ormai entrata stabilmente a far parte della nostra quotidianità, dai semplici assistenti domestici ai più complessi sistemi di robotica industriale. Nella sua definizione più ampia, l’intelligenza artificiale è un termine...

Cos’è la Data Quality e le metriche di riferimento

La Data Quality è una misura della condizione dei dati basata su fattori quali accuratezza, completezza, coerenza, affidabilità e se sono aggiornati. La misurazione dei livelli di qualità dei dati può aiutare le organizzazioni a identificare gli errori nei dati che...