L'intelligenza artificiale spiegabile (XAI) studia come le decisioni dell'AI e i dati che guidano tali decisioni possono essere spiegati alle persone al fine di fornire trasparenza, consentire la valutazione della responsabilità, facilitare la comprensione e, non ultimo, creare fiducia.
L’obiettivo dell’AI spiegabile, che rappresenta un approccio cruciale nell’evoluzione dell’intelligenza artificiale, è quello di eliminare le cosiddette "scatole nere" tipiche degli algoritmi di AI, consentendo agli operatori di comprendere appieno il processo decisionale delle macchine.
Una chiarezza che risulta fondamentale per aumentare la fiducia nelle nuove tecnologie da parte di chi le andrà ad utilizzare, soprattutto in settori come il manifatturiero dove le decisioni automatizzate possono avere un impatto significativo e critico sulla sicurezza e la produttività.
“All’interno di un team di lavoro la fiducia tra i componenti è fondamentale per raggiungere gli obiettivi”, ci dice Linda Napoletano, direttrice operativa e responsabile dell’Area Manufacturing di Deep Blue, realtà italiana con sede a Roma che si occupa di ricerca avanzata.
“La fiducia si costruisce con il tempo e la conoscenza. Non è diverso con l’AI quale nuova componente di un team verso la quale si deve creare fiducia; in quest'ottica l’AI spiegabile, aiutando a conoscere meglio l’AI, può dare un valido supporto alla sua diffusione”.
Deep Blue nel progetto Xmanai per l’AI spiegabile
Nata a Roma nel 2001 dall’idea di due ricercatori nell’ambito dell’aviazione e del controllo del traffico aereo, da sempre settori molto avanzati da un punto di vista tecnologico, oggi Deep Blue è una Pmi di ricerca avanzata e consulenza, specializzata in fattore umano, sicurezza, validazione e divulgazione scientifica in diversi settori, quali trasporti, sanità e produzione manifatturiera.
Deep Blue è anche tra le principali realtà italiane impegnate in progetti di ricerca e innovazione europei realizzati nei programmi Horizon e, insieme al consorzio europeo del progetto Xmanai - coordinato da TXT E-Solutions - è impegnata nel migliorare il modo in cui le macchine e gli esseri umani interagiscono nell'industria manifatturiera.
Attraverso un approccio basato sulla centralità dell’operatore umano che andrà a collaborare con le nuove tecnologie intelligenti, il progetto Xmanai - frutto della collaborazione tra 15 partner provenienti da sette Paesi europei, tra cui Italia, Germania, e Spagna - punta a migliorare l’interazione tra macchine ed esseri umani grazie all’AI spiegabile.
“Il nostro ruolo è di congiungere due mondi, quello di chi sviluppa le tecnologie con il mondo di chi le deve usare, facendo in modo che l’implementazione di una tecnologia sia di reale aiuto per le persone, in particolare in settori dove c’è un elevato rischio di safety e dove, quindi, l’errore umano è un ulteriore fattore di rischio”, spiega Linda Napoletano.
“Lavoriamo con team multidisciplinari per poter assicurare un approccio olistico, con esperti sia della sfera cognitiva, sia dell’ambito tecnologico, sia con designer delle interfacce”.
I temi che ruotano intorno all’AI spiegabile
“Xmanai rappresenta per noi un'importante opportunità per studiare e progettare le interazioni e il significato uomo-intelligenza artificiale da una prospettiva umana ed etica”, continua Linda Napoletano.
Il progetto Xmanai afferisce, in particolare, al settore manufacturing, area che in Deep Blue è stata implementata nel 2016 e che, a oggi, ha in corso sette progetti di ricerca e sviluppo.
Il team multidisciplinare è costituito da dieci persone e i temi indagati vanno dalla collaborazione tra persone, AI e robot, allo human AI teaming per cerare collaborazione tra persone e agenti intelligenti.
“Altri temi che affrontiamo riguardano i gap in termini di skill e competenze, i profili lavorativi che si vengono a creare in una realtà quando si introduce dell’automazione, gli aspetti legati alle performance umane sull’efficienza produttiva e di come queste siano legate al concetto di trust nei confronti della tecnologia stessa, nonché temi di acceptance delle tecnologie”.
“Lavoriamo anche sugli aspetti dell’etica, della liability e della responsabilità legata all’utilizzo di agenti autonomi, che si collega direttamente al concetto di AI spiegabile e che ci permette di limitare il rischio che la persona diventi l’anello debole del processo produttivo, per esempio”.
Il progetto Xmanai per il manifatturiero
“Xmanai si concentra sul concetto dell’AI spiegabile, ovvero un’AI trasparente e costruita su modelli che siano comprensibili sia da parte di data scientist, quindi figure con competenze tecniche specifiche, sia da parte di utenti finali, cioè i destinatari delle applicazioni di AI. In questo modo si crea la fiducia nei sistemi”, ci spiega Andrea Capaccioli, Senior Consultant di Deep Blue.
“Il risultato principale di Xmanai - durato oltre tre anni - è la progettazione e lo sviluppo di una piattaforma che supporta l’implementazione di pipeline di AI spiegabile. Tramite appositi moduli, esperti di AI possono creare pipeline realizzando componenti software utilizzabili per costruire applicazioni per l’utente finale”.
L’utente è, per intenderci, l’operatore di fabbrica nel caso di CNH, uno dei di quattro casi di studio sui quali è stato lavorato il progetto.
“In Deep Blue ci siamo concentrati proprio sul supporto alla progettazione della spiegabilità, da un punto di vista dell’interazione di progettazione delle interfacce e di studio di quali tipologie di spiegabilità si possa aver bisogno in diversi ambiti del business aziendale”, conclude Andrea Capaccioli.
"Si tratta di una soluzione di supporto al design dell’AI spiegabile, che si inserisce all’interno di un progetto che prevede un prodotto, che è la piattaforma e una soluzione, che è il servizio di progettazione dell’interazione e delle interfacce".
Come agisce l’AI spiegabile
L’AI spiegabile consente di fornire all'utente informazioni comprensibili, affidabili e pertinenti con il livello appropriato di dettaglio e con tempistiche adeguate su come un'applicazione di intelligenza artificiale o machine learning produca i suoi risultati e può essere implementata in diversi modi, quali:
- Visualizzazione dei dati: rappresentazioni grafiche o visive dei dati utilizzati dal modello e dei passaggi interni del modello stesso, per mostrare come sono state prese le decisioni.
- Fattori influenti: identificazione dei fattori e delle variabili più influenti che hanno contribuito a una decisione, evidenziando quali input hanno avuto un impatto maggiore sui risultati. Questo permette agli utenti di comprendere quali variabili sono state considerate dal modello e come hanno influenzato le decisioni finali.
- Interpretazione del modello: tecniche che permettono di attribuire un peso a ciascuna variabile di input e mostrare come queste variabili influenzano le previsioni del modello. Questo aiuta gli utenti a capire quali sono le caratteristiche più rilevanti considerate dal modello e come contribuiscono alle sue previsioni.
- Spiegazioni testuali: spiegazioni in linguaggio naturale o in forma di testo che descrivono il processo decisionale del modello in modo comprensibile agli esseri umani. Questo tipo di spiegazione è particolarmente utile perché fornisce una descrizione dettagliata e facilmente comprensibile del ragionamento dietro le decisioni dell'AI.
Quattro casi studio il progetto sull’AI spiegabile
All’interno del progetto Xmanai, Deep Blue è, dunque, impegnata nella ricerca e nello sviluppo di strumenti e metodologie per la progettazione di esperienze d'uso innovative delle AI.
Sono quattro i casi studio specifici del settore manifatturiero affrontati nel progetto, tutti con applicazioni in diversi ambiti del business aziendale:
- Sostegno alla manutenzione preventiva e alla risoluzione dei problemi delle macchine a controllo numerico;
- Ottimizzazione della produzione di una catena di montaggio, per valutare quali fattori incidono sul raggiungimento o meno degli obiettivi di produzione;
- Supporto alla business intelligence, per fare una previsione della domanda a supporto del piano operativo aziendale;
- Supporto agli operatori nello svolgere operazioni di misurazione complesse e migliorarne l’accuratezza.
Il tool UXAI, sviluppato all’interno del progetto, consente di suggerire le migliori visualizzazioni di dati per fare previsioni, creare scenari, controllare la produzione o analizzare modelli e tendenze.
Seguendo le indicazioni del tool, per esempio, sono state progettate e testate interfacce che permettono agli operatori di esplorare anomalie, fare previsioni e analizzare tendenze in modo intuitivo e informativo, migliorando così l'efficacia delle decisioni aziendali, come nel caso italiano di CNH Industrial.
CNH, il caso studio italiano sulla manutenzione dei macchinari
CNH è un'azienda di macchinari, tecnologie e servizi con oltre 180 anni di storia. Opera a livello globale in tre segmenti: agricoltura, movimento terra e servizi finanziari. La collaborazione con i partner europei del progetto Xmanai ha visto la realizzazione di un caso di studio presso lo stabilimento di Modena, in collaborazione con i colleghi di R&D della sede di San Matteo.
Questo sito produttivo attualmente produce 15.000 treni di trasmissione all’anno, che vengono montati su trattori assemblati in impianti CNH in tutto il mondo.
Il caso studio si è concentrato sui tempi di fermo macchina che interrompono la produzione, e sulla programmazione della manutenzione, un problema comune a tantissime aziende manifatturiere e che potrebbe essere risolto con l'uso della piattaforma Xmanai.
Grazie al supporto della tecnologia XAI, gli operatori possono diagnosticare gli errori della macchina e prevedere la fine della vita dei componenti in modo efficiente. Ciò consente di rifornire in tempo utile i pezzi a magazzino per effettuare tempestivamente gli interventi manutentivi sulle macchine e ottimizzare l’efficienza produttiva globale, riducendo tempi e costi associati ai fermi non pianificati.
Sfide e opportunità nell'adozione dell'AI spiegabile nelle Pmi
I casi studio coinvolti nel progetto Xmanai hanno riguardato imprese di grandi dimensioni, mentre l’adozione dell’AI e dell’AI spiegabile nelle piccole e medie imprese presenta sfide maggiori, a partire dalla necessità di risorse finanziarie e di personale adeguato a gestire il cambiamento organizzativo.
Sebbene l’obiettivo sia creare un’interazione spiegabile, sono comunque necessarie competenze specifiche. Oltre alla formazione, è richiesto un cambiamento di mentalità per integrare l'AI come nuovo componente di un team.
“È vero che il nostro obiettivo è mirato a creare un’interazione spiegabile, ma in fondo si tratta di algoritmi complessi anche da interpretare che richiedono personale formato”, precisa Linda Napoletano.
“Per le Pmi adottiamo un approccio incentrato sulle persone e altamente scalabile e come primo passo andiamo a studiare le realtà produttive per conoscere i flussi di lavoro, i profili della forza lavoro e il tipo di competenze per capire come e dove l’introduzione dell’AI potrebbe apportare dei benefici e che tipo di impatto potrebbe creare”.
È qui che Xmanai potrebbe avere un ruolo: in prima analisi, lo sviluppo della piattaforma potrebbe aiutare a integrare facilmente XAI nei processi di produzione e ad abbassare le barriere di accesso.
Conseguentemente, l’innovazione proveniente da Xmanai potrebbe aiutare a diffondere l’adozione di tecnologie innovative e a rafforzare un processo di digitalizzazione per sostenere la crescita e lo sviluppo economico.
Complementarietà e cambio di mindset, tra le tematiche da non sottovalutare
“Oltre alla formazione e all’acquisizione di determinate competenze, l’introduzione dell’AI richiede un cambio di mindset, e lo vediamo anche nelle piccole attività quotidiane”, afferma Linda Napoletano.
“Chiunque, prima di fidarsi di ChatGPT ha cercato di conoscerlo e testarlo, per esempio facendo domande di cui già conosceva la risposta per capire se ci si poteva fidare”.
Un altro tema oggetto di studio e ricerca ancora in atto a livello europeo è quello della complementarietà. Se da una parte il giusto approccio verso l’AI è fondamentale, è altrettanto necessario sviluppare capacità critiche per lavorare con le nuove intelligenze, soprattutto per comprendere come possano essere utili e dove, invece, è ancora l’essere umano la componente essenziale.