La diffusione dell’intelligenza artificiale nelle imprese sta accelerando a ritmi senza precedenti. Ma insieme alle opportunità, cresce anche il fenomeno della Shadow AI, ossia l’uso non controllato di strumenti di AI da parte dei dipendenti tramite piattaforme pubbliche, spesso al di fuori delle policy e delle infrastrutture di sicurezza aziendali. E mentre le aziende si attrezzano per correre dietro all’innovazione, una seconda ondata è già alle porte: gli agenti AI, destinati a moltiplicare ulteriormente i rischi se non governati efficacemente.
Un paradosso per i manager italiani: investire nell’AI, temere l’AI
Il 2025 rappresenta un anno emblematico per le imprese italiane. Secondo un recente sondaggio Kpmg, il 70% dei Ceo sta investendo significativamente nell’AI generativa per ottenere un vantaggio competitivo. Allo stesso tempo, però, la cybersecurity viene considerata la minaccia più rilevante alla crescita. Una contraddizione solo apparente: l’AI è infatti un abilitatore potentissimo, ma ogni tecnologia avanzata apre inevitabilmente nuove superfici d’attacco e nuovi vettori di rischio.
Questa vulnerabilità non proviene unicamente da hacker esterni. Molto spesso nasce dentro le aziende stesse, come conseguenza dell’utilizzo inconsapevole o non autorizzato di strumenti pubblici di AI generativa: è qui che si annida la Shadow AI.
La crescita dell’AI in Italia: numeri record, competenze insufficienti
L’Osservatorio Artificial Intelligence del Politecnico di Milano conferma la portata della trasformazione: nel 2023 il mercato italiano dell’AI è cresciuto del 52%, raggiungendo i 760 milioni di euro, e il 61% delle grandi imprese ha avviato almeno un progetto di AI. La richiesta è chiara: innovare, automatizzare, diventare più produttivi.
Ma questa spinta dall’alto si scontra con la mancanza di competenze interne. Confindustria rileva che il 55% delle aziende individua proprio il deficit di skill come prima barriera all’adozione. Quando i dipendenti sono chiamati a usare l’AI senza strumenti adeguati, i più proattivi cercano soluzioni da soli, spesso tramite piattaforme pubbliche e non governate. È qui che la Shadow AI prende forma e cresce.
Shadow AI: un rischio reale per dati, compliance e reputazione
Secondo il Cost of a Data Breach Report 2025 di IBM, il 77% dei Ciso vede nella fuga di dati il rischio principale, mentre il 63% teme in modo specifico “l’uso improprio dell’AI da parte del personale”. Ogni volta che un dipendente incolla un elenco di clienti, una bozza di report finanziario o codice proprietario in un modello generativo pubblico, sta trasferendo informazioni sensibili su server esterni, spesso fuori dall’UE o dal controllo aziendale.
Molte aziende reagiscono vietando l'uso di strumenti di AI pubblici, ma è una strategia che non funziona. I divieti spingono solo i dipendenti verso canali ancora più nascosti, spesso tramite dispositivi personali non monitorati dai team di sicurezza, ampliando ulteriormente la superficie di rischio.
Come gestire la Shadow AI: policy, formazione, tecnologia
L’analisi di Di Marco Bavazzano, Ceo di Axitea, indica tre pilastri per una governance efficace.
1. Policy: classificare i dati e fornire strumenti approvati
Il divieto non è una soluzione. Meglio definire con chiarezza cosa può essere condiviso con strumenti pubblici e cosa no. Un sistema di classificazione in tre livelli (Pubblico, Interno, Riservato) aiuta i dipendenti a capire immediatamente quali informazioni non devono lasciare il perimetro aziendale. Parallelamente, è necessario fornire piattaforme di AI enterprise sicure, controllate e approvate dai team di sicurezza.
2. Persone: formare alla consapevolezza, non al divieto
La formazione non deve limitarsi a elencare regole, ma spiegare conseguenze e rischi concreti. I dipendenti devono sapere perché condividere dati dei clienti con un chatbot pubblico è un problema, come anonimizzare le informazioni e come scrivere prompt senza esporre proprietà intellettuale o dati sensibili. La cultura della sicurezza è una competenza strategica, non un adempimento.
3. Tecnologia: monitorare il rischio, non i dipendenti
Le moderne soluzioni di Data Loss Prevention e un SOC avanzato consentono di intercettare in tempo reale l’invio accidentale di dati riservati verso domini di AI pubblici. L’obiettivo non è controllare il comportamento dei dipendenti, ma prevenire violazioni e attivare interventi tempestivi quando il rischio si manifesta.
Agenti AI: la nuova frontiera della Shadow AI
La Shadow AI non è destinata a fermarsi qui. Al Microsoft Ignite 2025 è emerso un dato sorprendente: entro il 2028 le aziende utilizzeranno 1,3 miliardi di agenti AI (fonte IDC per Microsoft). Si tratta di automazioni autonome capaci di prendere decisioni, recuperare informazioni, eseguire procedure aziendali e interagire con sistemi esterni. Una potenza enorme, ma anche un nuovo, potenziale caos se non governata.
Molte imprese non dispongono ancora di strumenti per monitorare o mettere in sicurezza questi agenti, che rischiano di diventare una nuova forma di Shadow IT: invisibili, incontrollati, potenzialmente esposti ad abusi o configurazioni errate. Per rispondere a queste criticità, Microsoft ha presentato Agent 365, un sistema progettato per osservare, gestire e proteggere gli agenti AI indipendentemente dalla loro origine (Microsoft, open-source o terze parti).
Gestire la Shadow AI per liberare il potenziale dell’innovazione
La rivoluzione dell’AI non può essere fermata, ma può – e deve – essere governata. La Shadow AI non nasce da malafede, ma dall’intraprendenza dei dipendenti e dalla velocità con cui le organizzazioni chiedono risultati senza sempre fornire strumenti adeguati.
