Il processo di analisi e valorizzazione dei dati rappresenta il motore competitivo di qualsiasi azienda digitalizzata. La Data Science è il complesso delle discipline statistiche, matematiche e informatiche che permette di trasformare le informazioni grezze in evidenze utili al business. Branca dell’intelligenza artificiale, il Machine Learning è l’insieme di tecniche che, all’interno del workflow analitico, rende possibile migliorare progressivamente le performance di un algoritmo nell’identificare pattern nei dati, permettendo quindi di correlare gli eventi e ricavare intuizioni con sempre maggiore accuratezza.

Nel panorama socioeconomico dominato dai Big Data, le tecnologie di apprendimento automatico stanno acquisendo un’importanza crescente al fine di monetizzare l’immenso patrimonio informativo aziendale e trasformare i modelli di business.

 

Machine learning per il nuovo scenario Big Data

Secondo Cefriel, la produzione giornaliera di dati a livello globale oggi raggiunge la ragguardevole cifra di 3 quintilioni di byte, crescendo a un ritmo vertiginoso: l’Osservatorio del Politecnico di Milano dichiara infatti che il 90% delle informazioni è stato creato nel corso degli ultimi tre anni.

La capacità di sfruttare il potenziale che si nasconde all’interno del mare magnum informativo è un’esigenza sempre più sentita dalle imprese di qualsiasi settore: in base alle stime dell’ateneo meneghino, il 43% dei Chief Information Officer italiani considerava la Business Intelligence, i Big Data e gli analytics tra le principali priorità di investimento per il 2018.

Alla luce dell’enorme mole di dati diversi per tipologia e provenienti da più fonti (datawarehouse aziendali, risorse online, social media, mobile app, dispositivi IoT), il Machine Learning si rivela un anello fondamentale del processo analitico per automatizzare la costruzione, la manutenzione e l’affinamento dei modelli di calcolo. Avere a disposizione algoritmi sempre più attendibili significa aumentare la possibilità di identificare nuove opportunità di profitto, ulteriori margini di efficienza oppure potenziali rischi altrimenti nascosti.

 

Il ruolo del Machine Learning ed esempi applicativi

Tipicamente una piattaforma tecnologica a supporto della Data Science copre cinque aspetti funzionali:

  1. le operazioni di cleaning, ovvero la selezione, preparazione e organizzazione delle fonti e dei dati;
  2. la creazione e l’applicazione dei modelli di Machine Learning, grazie all’ausilio di librerie predefinite;
  3. la visualizzazione dei dati e degli insights attraverso cruscotti e report intuitivi;
  4. la distribuzione rapida dei progetti dall’ambiente di sviluppo alla produzione;
  5. il monitoraggio e la manutenzione degli algoritmi perché siano sempre performanti e aggiornati.

Le tecnologie di apprendimento automatico permettono sostanzialmente a un computer di esplorare i dati, dedurre correlazioni e pattern, e, successivamente, delineare dei modelli predittivi. La macchina quindi osserva un campione di dati, ne estrae delle regole e, nel momento in cui esamina altri dati, modifica di conseguenza le proprie conoscenze. Ciò è possibile grazie all’utilizzo di algoritmi che imparano e si autoregolano sfruttando l’esperienza, attraverso, come detto, l’analisi iterativa dei dati. Maggiore è l’esperienza accumulata (cioè il volume di dati resi disponibili nel corso del tempo) tanto più alto sarà il grado di efficacia e attendibilità dei modelli di calcolo.

Esempi applicativi tipici del machine learning sono:

  • i veicoli a guida automatizzata che apprendono i percorsi da seguire mentre sono in azione, senza essere stati programmati a monte;
  • i software di raccomandazione, che individuano le preferenze degli utenti osservando il loro comportamento online e propongono quindi offerte correlate di interesse;
  • le soluzioni anti-frode nel settore bancario, che permettono di identificare eventuali anomalie rispetto alle operazioni abituali di un cliente, segnalando il rischio di frode.

 

Come funzionano le tecnologie di Machine Learning

Ma come fanno le tecnologie di Machine Learning a coprire quest’ampia gamma applicativa, imparando direttamente sul campo e senza un addestramento a priori?

Gli approcci più comunemente utilizzati sono tre:

  • apprendimento supervisionato (utilizzato ad esempio per gli strumenti di voice recognition e trascrizione): all’algoritmo vengono forniti sia gli input (dati di partenza) sia gli output (risultati desiderati), con lo scopo di trovare le correlazioni;
  • apprendimento non supervisionato (come nel caso dei motori di ricerca e dei software di recommandation): il pattern va costruito a partire dai soli input senza alcuna indicazione sulle risposte;
  • apprendimento con rinforzo (impiegato tipicamente nel campo della robotica e dei veicoli autoguidati): il sistema inserito in un contesto dinamico arriva alla soluzione per tentativi, grazie a un meccanismo che valuta l’esecuzione e assegna una ricompensa (detta anche rinforzo, se il risultato è corretto) o una penalità (se non è corretto). Associando esecuzione e valutazione, si arriva a ottimizzare il sistema, che diviene quindi capace di adattarsi ai cambiamenti dell’ambiente in cui è immerso.

Indipendentemente dalla tecnica utilizzata, il ruolo del Machine Learning all’interno dei processi analitici è l’individuazione dei pattern che legano un fenomeno all’altro riducendo al minimo l’intervento umano e imparando direttamente dai Big Data. In questo modo, è possibile risolvere problemi complessi sulla base di algoritmi che vengono aggiornati e adattati dinamicamente nel tempo e a seconda dei cambiamenti di contesto.

New call-to-action