Dopo l’Innovation manager, il Digital Transformation manager, il Change manager e finanche il Chief happiness manager, ora potrebbe essere il turno dell’AI Compliance manager, detto anche AI Officer o AI Compliance Officer.
Questa figura, o funzione/competenza interna o consulenziale, potrebbe infatti garantire la conformità delle applicazioni di Intelligenza artificiale alle norme europee che sono regolate sui diversi livelli di rischio.
L’AI Compliance Officer assumerebbe il ruolo di interprete e mediatore tra tre livelli interdipendenti: i requisiti normativi, gli obiettivi di business e le potenzialità tecnologiche offerte dagli stessi sistemi di intelligenza artificiale.
Chi è e cosa fa il nuovo AI Compliance Officer in azienda
"Questa funzione di raccordo diventa essenziale per evitare che l’innovazione proceda in modo disarticolato rispetto al quadro regolatorio, esponendo l’impresa a rischi sia di tipo legale sia di stampo reputazionale", evidenzia Sauro Mostarda, Ceo di Lokky, insurtech italiana data-driven specializzata in soluzioni assicurative digitali per Pmi, professionisti e freelance e parte del Gruppo Hiscox.
Questa figura potrebbe essere chiamata a validare o attestare processi algoritmici sviluppati all’interno di organizzazioni poco strutturate, caratterizzate da assetti di governance fragili e da una limitata conoscenza tecnologica.

"In questo contesto, il rischio non risiede più esclusivamente nell’errore tecnico, bensì nella difficoltà di individuare e correggere criticità più ampie di tipo sistemico, come la mancata individuazione di bias discriminatori e la validazione di output affetti da allucinazione. Le vulnerabilità risultano particolarmente amplificate nelle PMI, dove la carenza di competenze interne rende estremamente complessa la distinzione delle responsabilità tra consulente e impresa", suggerisce l’esperto.
"All’interno di questo quadro, anche il settore assicurativo è chiamato a interrogarsi sul proprio ruolo. Deve approfondire i nuovi profili di rischio anche legati all’utilizzo dell’intelligenza artificiale e valutare l’adeguatezza delle coperture di responsabilità civile professionale rispetto a scenari tecnologici in rapida evoluzione".
Il manager che favorisce l'integrazione dell'AI nel tessuto produttivo
Una figura come l’AI Compliance Manager potrebbe infatti favorire l’integrazione dell’intelligenza artificiale nel tessuto produttivo italiano. Se da un lato l’opportunità economica è chiara, la sua realizzazione concreta nei meccanismi decisionali delle Pmi dipende largamente dalla capacità di gestione del rischio.
"Senza un mercato assicurativo maturo, il divario digitale rischia di trasformarsi in un divario che impatta negativamente sulla competitività economica. La sfida dei prossimi anni sarà dunque di carattere culturale, in modo da trasformare la compliance da costo obbligato per le aziende a leva strategica di affidabilità e crescita", conclude Mostarda.
Cosa prescrive l’AI Act come figure di controllo, distinguendo tra quelle obbligatorie per Legge e quelle che non lo sono
L’AI Officer non è obbligatorio per legge, come neppure la presenza di un Risk Manager per la gestione di sistemi di Intelligenza artificiale. Altra cosa è il Data Protection Officer (DPO), che è previsto per l’osservanza del GDPR sulla privacy.
Tuttavia, per i sistemi ad alto rischio, l’articolo 14 dell’AI Act (Regolamento UE 2024/1689) prevede l’istituzione di responsabili della Sorveglianza Umana, ossia personale qualificato in grado di interpretare correttamente funzionamento e output dei sistemi con la possibilità di interromperli in qualsiasi momento, in modo da prevenire o ridurre al minimo i rischi durante l’uso.
I sistemi ad alto rischio sono quelli che possono avere un impatto significativo sulla salute, la sicurezza o i diritti fondamentali delle persone. L’AI Act ne individua otto categorie, tra cui biometria (riconoscimento e autenticazione di una persona), infrastrutture critiche, gestione e formazione delle risorse umane, servizi pubblici ed essenziali, forze dell’ordine, immigrazione e giustizia.
Fornitori e utilizzatori sono tenuti a monitorare continuamente i sistemi post-immissione sul mercato, con una sorveglianza umana continua da parte degli utilizzatori che segnaleranno eventuali rischi emergenti al fornitore. I fornitori sono anche tenuti a fornire documentazione tecnica sulla qualità dei dati di addestramento.
Di fatto serviranno sempre più figure con competenze specifiche per gestire la conformità dei sistemi al Regolamento europeo e il contenimento dei rischi a tutti i livelli. L’AI Act regola infatti lo sviluppo e l’utilizzo dei sistemi di AI all’interno dell’Unione Europea, con un approccio basato sul rischio, classificato su 4 livelli con obblighi crescenti: rischio minimo, rischio limitato con obblighi di trasparenza, rischio alto con requisiti severi di sicurezza, trasparenza e supervisione umana e rischio inaccettabile (sistemi vietati).
