Parlare di Intelligenza Artificiale è ormai all’ordine del giorno. Gli ambiti di applicazione sono i più vari, si spazia dall’uso a supporto delle aziende e industrie in genere, quindi commercio al dettaglio, ottimizzazione di magazzini, inventari, rifornimenti, logistica, fino ad usi apparentemente più superficiali, come nel caso dei deepfakes. 

I modelli di AI che vengono elaborati hanno la caratteristica di essere tanto “semplici e intuitivi” a livello concettuale, quanto complessi nella loro realizzazione, per questo molto spesso i risultati vengono accettati dagli utenti a scatola chiusa, senza chiedere spiegazione di come il modello sia arrivato a certi risultati. In queste condizioni, però, non è così facile riuscire a diffondere la cultura del dato: le decisioni prese da un modello di cui l’utente non ha visibilità delle funzionalità interne rischiano, infatti, di non essere prese sul serio e di essere considerate inaffidabili. 

Questa è una delle maggiori difficoltà che si incontra nei progetti di AI, ed è il motivo per cui si parla sempre più spesso di eXplainable AI (XAI), l’intelligenza artificiale “spiegabile”. 

Cosa si intende per eXplainable AI? 

L’IA spiegabile ( XAI ) è un insieme di metodi e processi che consentono agli utenti di comprendere ed avvalersi con fiducia dei risultati calcolati dagli algoritmi di machine learning. Lo scopo del’XAI è quello di fornire all’utente la comprensione, se pur ad alto livello, di ciò che accade all’interno del modello così da rendere l’utente partecipe delle trasformazioni che i dati subiscono e delle analisi di cui sono oggetto in modo, infine, da consentirgli di sviluppare maggior fiducia verso i propri dati e le soluzioni basate sull’AI.

Le qualità che distinguono l’eXplainable AI sono principalmente tre: trasparenza, interpretabilità e esplicabilità. 

Si parla di trasparenza quando i processi analitici di addestramento del modello possono essere descritti in modo univoco e chiaro, e quando la scelta di uno specifico algoritmo o parametro è motivabile, senza ambiguità. 

Interpretabilità ed esplicabilità sono concetti strettamente connessi tra loro, ma che descrivono momenti diversi del processo di impostazione e offerta all’utente: l’interpretabilità è legata, infatti, al modo di presentare il modello e il risultato calcolato all’utente così che risulti comprensibile per gli esseri umani. L’esplicabilità rappresenta lo step successivo, ovvero l’insieme di quelle caratteristiche del dominio applicativo che rendono il modello interpretabile all’interno di un contesto specifico e che, quindi, contribuiscono alla creazione di valore aggiunto in conseguenza alla decisione presa in modo data-driven.

Come funziona l’XAI

Tecnicamente parlando, ogni modello legge dati in input, potenzialmente provenienti dalle fonti più diverse, li elabora con tecniche statistiche ed analitiche anche molto complesse ed avanzate ed, infine, produce dei risultati obiettivi. La forza dell’XAI sta nel riuscire a rendere “spiegabili” questi passaggi analitici, fornire una spiegazione logica di come il modello di machine learning sia arrivato a quello specifico risultato e mettere quindi in relazione i dati in input con quelli in output. 

Rendere concreta questa “spiegabilità” senza banalizzare la complessità tecnologica e computazionale dei modelli è un passo difficile e necessita di competenze e tool specifici a supporto sia dei Data Scientist, che svilupperanno il modello, sia degli utenti che ne utilizzeranno i risultati, e che dovranno poterlo comprendere. 

In ambito XAI sono molti i metodi utilizzati (ad esempio LIME e SHAP), ma senza entrare nel merito strettamente tecnico possiamo parlare di due diversi approcci in termini progettuali.  

La prima tecnica è quella che prevede, una volta completato lo sviluppo del modello analitico di AI, la creazione di una sua versione “semplificata”, con le stesse caratteristiche di trasformazione dei dati, ma con un grado di approssimazione molto più alto. Ciò da un lato invalida per questa versione la precisione e l’affidabilità validata sul modello originale, d’altra parte però lo rende molto più semplice da spiegare all’utente. Questa versione semplificata del modello, per i suddetti motivi non verrà mai utilizzata nel vero processo analitico e decisionale, ne è semplicemente una rappresentazione più semplice e comprensibile, quindi utile per spiegare il processo analitico e decisionale all’utente finale, non tecnico. 

Un approccio alternativo è quello più incentrato sulla interpretabilità del modello di AI, ovvero sulla scelta di rendere esso stesso comprensibile all’utente, senza passaggi intermedi. Per fare ciò ci si può avvalere di tool specifici che aiutano già al momento dell’impostazione del processo a renderlo “modulare”: si riesce così a sfruttare il meccanismo delle black box calandolo sulle singole attività ed analisi del processo, piuttosto che lasciandolo a livello di intero progetto. Ogni step è rappresentato da una sua black box, per cui l’utente può seguire il flusso analitico in ogni passaggio osservando le scatole dall’alto, comprendendo quindi lo scopo di ogni step, senza dover entrare nel merito tecnico di come ogni operazione sia fisicamente fatta. Se ne ricava quindi comunque una visione semplificata del flusso analitico, ma semplicemente osservandolo da un punto di vista più alto. BNova per questo approccio ha scelto la piattaforma Dataiku, un tool di Data Science grafico e molto potente che, grazie all’interfaccia grafica intuitiva e modulare, permette di sviluppare flussi anche molto complessi, ma comprensibili anche da utenti non tecnici.

È evidente che spiegare un modello ad un Data Scientist sarà molto più semplice che spiegarlo ad un utente di business, questo perché ogni soggetto ha competenze specifiche ed interessi diversi. Per semplificare la questione è un buon suggerimento avvalersi di tool di supporto adeguati che supportino ogni fase del progetto per le diverse funzioni aziendali, spesso infatti le interfacce grafiche rendono intuitivi anche ragionamenti molto complessi, grazie alle componenti visuali che caratterizzano le diverse operazioni. 

I possibili sviluppi futuri 

Grazie all’eXplainable AI stanno diventando realtà quelli che fino a poco tempo fa erano considerati gli sviluppi futuri del Machine Learning per l’AI: parliamo di auto a guida autonoma, di chatbot e di tutte le soluzioni create a sostegno di attività umane soggette ad errori critici (diagnostica medica, tecnologie militari, investimenti, finanziamenti, etc..) 

Gli sviluppi in questa direzione sono infatti ancora molto focalizzati sul ruolo centrale dell’uomo e sull’aiuto e il supporto che l’AI può fornirgli per ottimizzare le sue attività e decisioni. Sono tanti infatti gli aspetti etici ed emozionali che influiscono sulle decisioni finali e che non si riescono a modellare matematicamente. Quindi l’XAI non sostituirà probabilmente mail del tutto l’uomo, ma sicuramente nel tempo gli sarà di grandissimo supporto per osservare il mondo in modo obiettivo e prendere decisioni, se pur influenzate dai suoi sentimenti, in modo più consapevole rispetto alla realtà delle cose.

ARGOMENTI CORRELATI
Categoria: INTELLIGENZA ARTIFICIALE
Concept grafico che richiama l'analisi sui dati IoT. Immagine che raffigura le mani di un uomo di fronte a tablet e smartphone su cui appare una dashboard analitica

IoT Analytics: il valore di applicare il Machine Learning all’IoT 

L’Iot consiste in un sistema formato da dispositivi informatici univoci e interconnessi, capaci di scambiare dati attraverso la rete in… Leggi tutto

Concept grafico che richiama i sistemi di raccomandazione. Immagine che raffigura un uomo e una donna alla scrivania di fronte al computer.

Cosa sono e come funzionano i sistemi di raccomandazione 

Prima della diffusione di internet e dei motori di ricerca, trovare informazioni utili ad uno specifico argomento o contesto era… Leggi tutto

Industria 4.0 e strategie di manutenzione: le differenze tra manutenzione reattiva, preventiva e predittiva. Immagine che raffigura due chiavi inglesi posate sulla tastiera di un computer.

Industria 4.0 e strategie di manutenzione: le differenze tra manutenzione reattiva, preventiva e predittiva 

Per comprendere al meglio le caratteristiche e le potenzialità dell’Industria 4.0 è importante fare chiarezza sul mix tecnologico e di… Leggi tutto