HomeProcess AutomationSafety e CybersecurityL'AI nelle aziende italiane: il 60% dei manager approva progetti non protetti

L’AI nelle aziende italiane: il 60% dei manager approva progetti non protetti

Governance fragile, rischi cyber in crescita e sempre più aziende chiedono un “kill switch” per fermare i sistemi AI. È questo il quadro critico che emerge dalla ricerca “Securing the AI-Powered Enterprise"

Ti potrebbero interessare ⇢

Nicoletta Buora

L’adozione dell’intelligenza artificiale nelle aziende italiane corre più veloce della capacità di gestirne i rischi. Secondo la ricerca Securing the AI-Powered Enterprise condotta da TrendAI su 3.700 decision maker in 23 Paesi tra cui l'Italia, il 60% dei manager italiani ha approvato progetti AI pur sapendo che non erano adeguatamente protetti.

Una scelta dettata dalla pressione competitiva e dalla necessità di rispondere rapidamente alla domanda interna. Oltre la metà dei responsabili aziendali, infatti, ammette di aver dato il via libera a iniziative basate sull’AI nonostante forti preoccupazioni in ambito sicurezza e conformità.

Governance AI ancora immatura: solo il 20% ha policy complete

Uno dei dati più critici riguarda la governance. Solo il 20% delle organizzazioni italiane dispone di policy AI complete, mentre molte sono ancora in fase di definizione. Questo ritardo normativo si riflette in una gestione frammentata dei rischi.

Il 57% delle aziende riconosce che l’adozione dell’intelligenza artificiale sta superando le capacità di difesa, mentre il 23% dichiara una conoscenza limitata dei quadri normativi. Inoltre, il 41% segnala incertezza sulle regolamentazioni, evidenziando un contesto ancora poco chiaro per le imprese.

AI agentica e perdita di controllo: il nodo della fiducia

La diffusione di sistemi di intelligenza artificiale autonoma apre nuovi scenari di rischio. Il 39% degli intervistati ritiene che l’accesso degli agenti ai dati sensibili costituisca il rischio maggiore. Il 28% delle aziende ammette di non avere piena visibilità o verificabilità sui sistemi AI, rendendo difficile intervenire in caso di anomalie.

Nonostante il 43% creda che l’AI migliorerà la sicurezza nel breve termine, resta forte l’incertezza sulla gestione operativa e sul controllo degli agenti intelligenti.

Kill switch: le aziende chiedono sistemi di emergenza

Il 38% delle organizzazioni chiede l’introduzione di un “kill switch”, ovvero un meccanismo per spegnere immediatamente i sistemi AI in caso di malfunzionamenti o utilizzi impropri.

Tuttavia, quasi un terzo delle aziende resta indeciso sulle contromisure da adottare. Un segnale evidente di quanto il tema del controllo dell’intelligenza artificiale sia ancora aperto.

Innovazione senza controllo?

Il quadro delineato dalla ricerca evidenzia un paradosso: le aziende investono nell’intelligenza artificiale per restare competitive, ma lo fanno spesso senza strumenti adeguati di governance e sicurezza.

Il rischio è quello di integrare l’AI in sistemi critici senza piena comprensione o controllo, esponendo le organizzazioni a vulnerabilità crescenti.