Le grandi aspettative create sull’intelligenza artificiale hanno spinto le aziende ad interessarsi alle sue applicazioni, per capire come utilizzarle per migliorare il proprio business, scoprendo che molto spesso ciò avviene quando la AI si rivela in grado di garantire un supporto alle decisioni più importanti. 

Immagine promozionale cta infografica intelligenza artificiale

Quando l’intelligenza artificiale assume un ruolo rilevante nel prendere decisioni, diventa fondamentale che il comportamento dei suoi modelli risulti trasparente, affinché gli stakeholder possano comprendere il loro funzionamento e fidarsi dei risultati ottenuti. 

È emersa dunque l’esigenza diffusa di spiegare come funziona il machine learning e ciò ha dato origine ad una nuova disciplina nel contesto dell’AI responsabile: la eXplainable Artificial Intelligence (XAI). Vediamo in cosa consiste e quali sono le sue principali applicazioni. 

Cos’è l’eXplainable AI 

Secondo la definizione fornita da IBM, la AI spiegabile (eXplainable Artificial Intelligence, XAI) “è un insieme di metodi e processi che consentono agli utenti di comprendere e considerare attendibili i risultati e l’output creati dagli algoritmi di machine learning”. In altri termini, la XAI: “viene utilizzata per descrivere un modello AI, il relativo impatto previsto ed i potenziali errori”. 

La eXplainable AI si pone quale antagonista del concetto di black box del machine learning ed in particolare di quella condizione in cui nemmeno i designer stessi riescono a spiegare in maniera esatta come la AI da loro modellata sia arrivata ad una specifica decisione. 

In termini più pratici, la AI riceve degli input per produrre una serie di output. Nel caso della XAI, l’attenzione si concentra su come le variabili degli input riescono a determinare un output specifico. 

Perché è importante

Con i progressi legati alla sua evoluzione tecnologica, la AI ha assunto un potere sempre più rilevante nel supportare le decisioni capaci di produrre un impatto significativo a livello di business. Da questo punto di vista, nel considerare l’opportunità di affidare alla AI un ruolo nei processi decisionali, un’organizzazione dovrebbe interrogarsi in merito agli stessi argomenti che prenderebbe in esame se dovesse assumere un decision maker umano. Tra questi figura il modo con cui un soggetto responsabile arriva a prendere determinate decisioni. 

Di fatto, molte organizzazioni non si fidano a priori dell’operato dell’intelligenza artificiale, in quanto non conoscono nel dettaglio come funziona: non sanno come gli input vengono tradotti in output. La spiegabilità diventa pertanto un fattore essenziale per superare la barriera di adozione della AI nei processi. La XAI spiega come i modelli AI riescono a generare i loro insight e il relativo supporto decisionale che ne deriva, facilitando la loro adozione nella pipeline aziendale. 

Non è raro incontrare uno specialista dei dati affermare come, molto spesso, la sfida più complessa da superare nel suo lavoro non sia quella di costruire un modello di intelligenza artificiale valido nel suo funzionamento, ma convincere gli stakeholder che quel modello, se correttamente implementato, sarebbe facilmente in grado di prendere decisioni spesso migliori rispetto a quelle che, nel medesimo scenario, prenderebbe un decisore umano. Ciò avviene per vari fattori oggettivi, che spaziano dalla capacità di analizzare enormi numeriche di dati al correlare una quantità di variabili molto elevata in tempi molto contenuti, grazie alla crescente potenza di elaborazione di cui si dispone oggi. Il problema quindi non è se, ma come l’intelligenza artificiale arrivi a prendere e suggerire all’uomo decisioni altamente affidabili. 

Spiegare cosa succede nella “black box” del machine learning supera pertanto il soddisfacimento di una semplice curiosità o di verifica di rispondenza agli aspetti etico-normativi, diventando un fattore oggettivo, in grado di condizionare l’adozione dell’intelligenza artificiale nel contesto dell’automatizzazione delle decisioni fondamentali per il business.

I principi e le caratteristiche della eXplainable AI 

La eXplanaible AI è rientra a pieno titolo nel contesto della AI responsabile, disciplina più ampia, che comprende ulteriori aspetti oltre alla trasparenza e alla spiegabilità che connotano nello specifico la XAI. 

L’intelligenza artificiale responsabile coinvolge, in varia misura, elementi quali: imparzialità, equità, privacy, accountability (responsabilità), sicurezza, governance dei dati, sostenibilità ecologica-ambientale, e molto altro. 

Appare evidente che si tratti di aspetti che vanno ben al di là della semplice componente tecnologica, comportando l’esigenza di una vera e propria strategia di implementazione delle AI impostata secondo criteri umano-centrici e collaborativi, ai fini di rendere davvero trasparente ciò che avviene nella black box, laddove gli input vengono trasformati in output. 

In questo contesto è inoltre necessario considerare che la eXplainable AI eserciterà un ruolo sempre più rilevante nell’ambito normativo, in quanto già ora il GDPR impone di adottare criteri di trasparenza in merito alla conservazione e al trattamento dei dati digitali, gli stessi che vengono impiegati per il training dei sistemi di machine learning. Anche in questo caso, spiegare il funzionamento dei modelli di intelligenza artificiale non può essere considerata un’attività accessoria. 

Tra le principali criticità che la XAI si ritrova ad affrontare figura la valutazione del bias, lo scostamento tra il modello di machine learning il contesto da cui provengono gli input e in cui vengono generati gli output. Aspetti come la data governance e la data quality finiscono per risultare fondamentali non soltanto per garantire una risposta attendibile da parte della AI, ma anche per spiegarne il suo funzionamento. 

Spiegare l’intelligenza artificiale 

I modelli di intelligenza artificiale sono relativamente semplici dal punto di vista puramente concettuale, in quanto si ispirano ad argomenti di semplice divulgazione, come la volontà di voler emulare il comportamento della mente umana (AI generale) o di voler risolvere un problema specifico (AI ristretta). 

Quando si entra nel merito delle tecniche utilizzate, spiegare come funziona la AI diventa molto più complesso, in quanto la complessità matematica di un modello non può essere banalizzata in maniera eccessiva per facilitarne la divulgazione ad un pubblico non specialista. 

Inoltre, la sola spiegabilità non sarebbe in alcun modo sufficiente per descrivere e spiegare il funzionamento di un modello. Occorre necessariamente associare il concetto di interpretabilità dell’intelligenza artificiale, che relaziona gli input data e gli output data per spiegare in maniera logica la previsione operata dal modello di machine learning. Soltanto grazie all’interpretabilità siamo in grado di spiegare la relazione causale che intercorre tra i dati in ingresso e in uscita. Tale aspetto condiziona la scelta stessa degli algoritmi utilizzati dal modello, anche in funzione del livello di spiegazione che si intende fornire, senza tralasciare aspetti di natura tecnica, come il tipo di dati utilizzato. 

Sulla base di tali aspetti sono disponibili vari metodi nell’ambito della eXplainable AI, come il LIME, il SHAP e il LRP, a loro volta impiegabili con vari approcci in fatto di interpretabilità, di cui descriveremo i due più diffusi.

Proxy modeling 

Il proxy modelling spiega il modello di machine learning creando una versione differente, dalla struttura semplificata rispetto alla black box originale, per approssimare la complessità operativa che risiede al suo interno. L’obiettivo di questa tecnica di XAI è pertanto quello di spiegare il funzionamento di un modello attraverso la creazione di qualcosa di più semplice da comprendere. 

La principale criticità del proxy modeling risiede nel fatto che, per quanto efficace nel suo scopo, si tratta di un modello differente rispetto a quello effettivamente utilizzato per generare gli output decisionali. Questo aspetto, benché incoraggiato dalla semplicità divulgativa, comporta una notevole attenzione ed esperienza da parte dei designer, ai fini di evitare di descrivere funzionamenti che nulla hanno a che vedere con i modelli AI effettivamente implementati nei processi. 

Design of interpretability

Se il proxy modeling consiste nella realizzazione di un modello di machine learning alternativo rispetto a quello originale, l’approccio del design of interpretability consiste nel prendere come base di partenza il modello originale per semplificarlo, limitando le opzioni di apprendimento e il campo di dati utilizzato per il training. Esistono varie tecniche per arrivare a questo risultato, a partire dalla scomposizione dell’intera black box in più parti, per isolare i concetti da spiegare, rendendoli di più immediata comprensione. 

Se il proxy modeling, se eseguito in maniera non efficace, rischia letteralmente di spiegare una cosa per un’altra, anche il design of interpretability non è esente da rischi, soprattutto se un’eccessiva semplificazione del modello originale diventa al tempo stesso la causa di una mancanza di accuratezza, derivata dal limitato apporto informativo del modello derivato. 

La scelta del metodo di eXplainable AI

La scelta dei metodi e delle tecniche da adottare per spiegare un modello AI dipende da vari fattori. In primo luogo è necessario considerare il pubblico di riferimento. Un addetto ai lavori necessita di minori semplificazioni rispetto ad uno stakeholder non tecnico, come un manager d’azienda, che è tenuto a prendere decisioni fondamentali ma non è tenuto a conoscere il linguaggio tecnico dell’intelligenza artificiale. Ulteriori ragionamenti vanno formulati quando il destinatario del messaggio coincide con il pubblico generalista o l’utente finale di un servizio / soluzione. 

Appare pertanto scontato come la XAI sia una disciplina dalle varie sfaccettature, che soltanto l’esperienza e la costante applicazione sul campo sono in grado di indirizzare nella corretta direzione, in funzione del caso specifico. Un approccio standardizzato, oltre a non essere di fatto possibile, non sarebbe per principio consigliabile, per il semplice fatto che ogni applicazione della AI si riferisce ad un contesto specifico, che va interpretato e spiegato nella maniera più opportuna in funzione del target di riferimento. 

Per citare un semplice esempio di questo concetto, appare ovvio come un’applicazione in ambito militare, sanitario o sui temi della giustizia, data la loro connotazione di carattere etico e l’esigenza di agire in analogia con gli standard umani, necessiti di un livello trasparenza maggiore rispetto alla descrizione di un chatbot per l’assistenza ai clienti, che si spiega praticamente da solo, attraverso la qualità del suo operato.

Alcuni casi di utilizzo

L’ambito applicativo dell’intelligenza artificiale incide in maniera significativa sull’esigenza di spiegarne il funzionamento, per assicurare la trasparenza delle sue scelte. La XAI viene utilizzata in modo prevalente laddove il rapporto tra etica e tecnologia si configura come un aspetto centrale in funzione della responsabilità della decisione presa dall’intelligenza artificiale. A seguire, gli ambiti in cui ad oggi appare più diffusa l’esigenza di spiegare il funzionamento dei modelli di machine learning impiegati per generare automaticamente le decisioni.

Finanza (Fintech)

Il comparto finanziario utilizza le tecniche di intelligenza artificiale per implementare i propri servizi, in particolare la concessione di mutui e finanziamenti ai clienti. Tali operazioni sono spesso soggette a decisioni di carattere discriminatorio e non mancano di suscitare polemiche, in gran parte dei casi più che legittime, da parte di chi si vede escluso da certi termini di garanzia o eccessivamente limitato in termini di importi erogabili in un mutuo o in un finanziamento. 

La casistica dimostra come tali differenze spesso non insistano su parametri di qualità puramente economica, ma siano determinati dal sesso, dall’etnia e dall’estrazione sociale del candidato. 

L’impiego della XAI è fondamentale per garantire la trasparenza del processo con cui la banca eroga un finanziamento, contribuendo al tempo stesso a migliorare il modello di training del sistema. 

Appare inoltre scontato come non vi siano parametri di valutazione assolutamente oggettivi e la XAI debba al tempo stesso tutelare la discrezionalità della banca nell’erogare i servizi secondo le proprie policy. Una sfida di non semplice soluzione.

Guida autonoma

I veicoli dotati di sistemi di guida autonoma sostituiscono l’uomo con vari livelli di autonomia. La XAI assume pertanto un ruolo chiave, soprattutto perché si tratta di spiegare all’opinione pubblica come la guida autonoma possa garantire adeguati standard di sicurezza nella circolazione stradale. Ciò appare necessario affinché i proprietari dei veicoli si fidino dei mezzi a loro disposizione, soprattutto nella prospettiva di implementare sistemi a livello 4 e a livello 5, che avvicinano la totale autonomia del sistema basato sulla AI. Gli esempi più comuni della XAI in questo contesto risiedono ad esempio nella spiegazione del modo con cui il veicolo parcheggia in autonomia o distingue correttamente i pedoni rispetto ad altri possibili ostacoli. La XAI è stata utilizzata anche per spiegare il funzionamento dei sistemi di guida autonoma di mezzi come i treni senza conducente.

Applicazioni militari

L’impiego dell’intelligenza artificiale nelle applicazioni militari è da sempre una questione di enorme responsabilità, che implicano l’esigenza di motivare ai contribuenti quali sono le ragioni che sostengono investimenti così importanti, sostenuti dalla spesa pubblica. 

Agli aspetti di sostenibilità economica, utili per rispondere alle obiezioni di chi vorrebbe destinare i fondi per la difesa ad altre attività, ritenute più utili per la collettività, emergono questioni di carattere puramente etico, circa l’impiego di funzioni basate sull’intelligenza artificiale per facilitare l’uccisione di esseri umani. 

Riconoscimento facciale 

Il riconoscimento facciale è uno degli ambiti applicativi della AI ad oggi più maturi dal punto di vista tecnologico, data la relativa semplicità con cui vengono ormai configurati i modelli e costituiti i data set implementati per il training. Il loro impiego è molto vario e coinvolge ad esempio i sistemi di videosorveglianza, laddove insistono oggettive problematiche legate alla privacy. La XAI viene pertanto impiegata per descrivere la trasparenza nella modalità di acquisizione e trattamento dei dati personali, escludendo al tempo stesso la possibilità di applicazioni discriminatorie.

Telecomunicazioni 

La XAI viene utilizzata in ambito Telco soprattutto quando si tratta di spiegare il funzionamento delle reti e dei loro protocolli, per garantire la trasparenza in merito al trattamento dei dati durante il loro traffico. Ciò accade sia per generare fiducia nei confronti degli utenti finali dei servizi che per assicurare la rispondenza ai disposti normativi. Tali aspetti assumono una ulteriore rilevanza nell’ambito dei servizi erogati dalla pubblica amministrazione, ai fini di alimentare un miglior livello di fiducia nelle istituzioni da parte dei cittadini.

Diagnostica medica 

L’intelligenza artificiale esercita un ruolo chiave nel contesto della diagnostica medica. Dato il livello di responsabilità di tali applicazioni, la XAI viene utilizzata per spiegare come le tecniche di digital imaging siano effettivamente in grado di diagnosticare quelle patologie che sfuggirebbero in maniera pressoché costante all’esame dell’occhio umano. 

La XAI è ad esempio utilizzata per spiegare il modo con cui la diagnostica strumentale, attraverso tecniche basate sulla AI, riesce a distinguere un tessuto sano rispetto ad uno potenzialmente affetto da una patologia tumorale. 

In altri termini, la XAI contribuisce a creare nel paziente il necessario sentimento di fiducia per accettare l’esito drammatico di una diagnosi precoce, indispensabile per alimentare concrete speranze di guarigione, prima che la patologia raggiunga stadi potenzialmente irreversibili. Altre applicazioni della eXplainable AI intervengono ad esempio nell’ambito della diagnosi delle patologie rare. 

Gli scenari futuri

L’intelligenza artificiale coinvolge ormai aspetti fondamentali della nostra vita e del business delle organizzazioni. Tale aspetto assume una rilevanza economica tutt’altro che trascurabile e lo dimostrano gli investimenti utili a sostenere anche una disciplina relativamente giovane come la eXplainable AI. 

Particolarmente significativa, in tal senso, è la motivazione offerta dal Dipartimento della Difesa degli Stati Uniti d’America) in occasione dell’annuncio del DARPA-XAI, programma da 2 miliardi di dollari proprio sui temi della spiegabilità della AI in ambito militare, con l’obiettivo di: “Creare nuovi sistemi di machine learning, che sapranno spiegare le loro motivazioni, individuando punti di forza e debolezze, oltre a trasmettere una comprensione in merito al loro futuro comportamento”. 

Altri numeri provengono da una recente ricerca di Forrester, secondo cui la XAI è un fenomeno capace di generare vantaggi per chiunque la implementi in maniera consapevole nella propria pipeline, a partire da una riduzione dell’impegno per il monitoraggio del modello, con la possibilità di dimezzare addirittura la spesa prevista. 

Tali fattori, secondo Forrester, favoriscono l’adozione della AI nel contesto aziendale, come dimostra l’incremento fino ad 8 volte dei modelli in produzione generato da chi ha adottato la XAI nel proprio workflow, generando al tempo stesso un incremento di accuratezza dei modelli del 30%, con un incremento dell’intervallo dei profitti che, nei casi più fortunati, arriva fino al 300%. 

Tali numeri, associati alla progressiva maturazione delle tecnologie coinvolte, asseconderà la crescente esigenza di trasparenza richiesta alle applicazioni basate sull’intelligenza artificiale. Vi sono pertanto tutti i presupposti per sostenere come la XAI sia una disciplina emergente nella straordinaria varietà che contraddistingue oggi l’intelligenza artificiale. Una disciplina destinata a durare e ad assumere un ruolo sempre più importante per sostenere la fiducia nei confronti di una AI capace di prendere decisioni utili per il business e sostenibili dal punto di vista economico, etico e sociale, conquistando la fiducia di tutti gli stakeholder. 

ARGOMENTI CORRELATI
Categoria: INTELLIGENZA ARTIFICIALE
Gruppo di lavoro formato da ragazzi che osservano dati su un notebook

Cosa sono e come funzionano le reti neurali ricorrenti

Le reti neurali trovano il loro fondamenti nei lontani anni Quaranta del Novecento, quando Warren McCulloch e Walter Pitts pubblicarono… Leggi tutto

Ragazzo osserva lo schermo di un pc cercando di elaborare alcuni dati a schermo

Reti neurali: cosa sono, come funzionano e le applicazioni

Nel contesto dell’intelligenza artificiale si parla sempre più spesso di reti neurali, intese quali modelli matematici dichiaratamente ispirati al funzionamento… Leggi tutto

Due colleghi osservano i dati sul pc

Transfer learning: cos’è, i modelli e le applicazioni

Lo sviluppo legato all’intelligenza artificiale coinvolge un’ampia varietà di metodi e tecniche, che possono valorizzare l’abilità di riutilizzare in maniera… Leggi tutto