HomeProcess AutomationSafety e CybersecurityAI e cybersecurity: come criminali informatici e realtà attaccate utilizzano modelli di...

AI e cybersecurity: come criminali informatici e realtà attaccate utilizzano modelli di AI

L'intelligenza artificiale sta impattando su tutta la società. Nel settore della cybersecurity è utilizzata per contrastare minacce e attacchi informatici, ma anche per perpetrarli, da parte dei cybercriminali. Alex Galimi di Trend Micro Italia si concentra su due modelli: AI categorizzante e AI generativa

Leggi la rivista ⇢

  • n.305 - Settembre 2022
  • n.304 - Luglio 2022
  • n.303 - Giugno 2022

Ti potrebbero interessare ⇢

Nicoletta Buora

L’Intelligenza Artificiale (AI), sappiamo, sta rivoluzionando diversi settori della società e in ambito cybersicurezza, i vendor del settore sono stati probabilmente tra i primi ad adottare l’AI per affrontare la lotta alla criminalità informatica.

Purtroppo, però, a investire in tecnologie emergenti come questa non solo soli i “buoni”, anche i criminali informatici, ormai vere e proprie organizzazioni, sono molto abili a implementare modelli di AI per i loro attacchi.

Per questo è importante osservare l’evoluzione di questa tecnologia, concentrandosi in particolare su due tipi di modelli: l'AI categorizzante e quella generativa. Ce ne parla Alex Galimi, Technical Partner Manager Trend Micro Italia. 

Intelligenza artificiale categorizzante

Conosciuta anche come modello classificatore, segmentatore o descrittivo, l'intelligenza artificiale categorizzante, come dice il suo nome, prende un input e lo categorizza.

Un'applicazione ovvia per i difensori di rete è quella di classificare input come connessioni di rete, comportamenti o file in "buoni" e "cattivi".

Si tratta di una continuazione logica del classico elenco di blocchi e permessi, con l'unica differenza che la decisione buono/cattivo viene presa automaticamente anziché creata manualmente.

Come utilizzarla in modo efficace

Occorre prestare attenzione a un paio di aspetti per utilizzare l'intelligenza artificiale categorizzante:  in primo luogo, gli sviluppatori di queste soluzioni dovrebbero evitare di stabilire in modo esclusivamente binario se un input è buono o cattivo.

C'è una grande differenza tra un file giudicato dannoso all'1% e uno giudicato dannoso al 49%; per questo motivo potrebbe essere utile fornire categorie definibili dall'utente, come ad esempio "potenzialmente dannoso" o "indesiderato", per aggiungere maggiore variabilità in termini di affidabilità.

In secondo luogo, gli utenti hanno bisogno di conoscere non solo la risposta, ma anche il modo in cui un modello di AI la elabora. Purtroppo, la maggior parte delle IA attuali non è autoriflessiva, cioè non è consapevole di sé stessa e del proprio processo decisionale.

L'AI come un esperto ben addestrato

L'AI di oggi è quindi come un esperto ben addestrato, valuta i fatti che gli vengono presentati sulla base del proprio istinto in modo da giungere a una conclusione.

Per ridurre questi rischi, potrebbe essere una buona idea memorizzare le decisioni dell'AI per una futura analisi forense ed eventualmente anche i dati grezzi su cui si sono basate tali decisioni.

Ciò consentirebbe a un essere umano esperto di ricostruire o riconfermare la decisione dell' AI.

Indirizzare il successo dell’intelligenza artificiale generativa

Il motivo per cui tutti i consigli di amministrazione parlano di AI è dato dal fatto che modelli generativi, come ChatGPT, debuttano sulla scena con una straordinaria capacità di interagire con gli utenti attraverso il linguaggio naturale.

Il modello calcola o "genera" un output da un enorme pool di dati di addestramento, combinati con il contesto attuale (domande o cronologia delle chat).

Tuttavia, è importante ricordare che questi modelli non "capiscono" realmente i contenuti che apprendono. Di conseguenza, tutto ciò che viene prodotto è fondamentalmente solo un ottimo "remix" dei contenuti su cui il modello è stato addestrato.

La forza dei modelli generativi

A differenza dell'AI categorizzante, la forza dei modelli generativi non sta nel prendere decisioni, ma nel riassumere e presentare informazioni e fatti in un dialogo.

Se addestrati sui dati giusti - per esempio input che coprono le connessioni di rete, le interazioni, la conformità e i requisiti aziendali - potrebbero diventare assistenti informatici estremamente efficaci.

Un modello di intelligenza artificiale generativa potrebbe essere in grado di consigliare impostazioni di sistema ottimizzate, o suggerire priorità per una strategia di conformità e, persino essere in grado di fornire un'analisi delle cause degli attacchi.

Utilizzo dell'AI categorizzante per scopi malevoli

Purtroppo, ciò che funziona per i team di sicurezza IT può essere utilizzato anche da aggressori con obiettivi dannosi, ed è risaputo che i cybercriminali sono sempre pieni di risorse.

Infatti, un'importante fuga di dati che l’anno scorso ha colpito il famigerato gruppo ransomware Conti, ha rivelato che questo spendeva 6 milioni di dollari annui in strumenti, servizi e stipendi, destinandone la maggior parte in ricerca e sviluppo.

In questo gioco al gatto e al topo, solo lo studio dell'uso malevolo dell'AI può permettere alla cybersecurity di progettare prodotti e misure di mitigazione migliori.

Per i team di sicurezza informatica, i modelli di intelligenza artificiale categorizzante costituiscono la punta di diamante della difesa informatica.

AI categorizzante per selezionare strategicamente le vittime e pianificare nuovi attacchi

I cybercriminali, invece, li utilizzano principalmente per selezionare strategicamente le vittime e pianificare nuovi attacchi. Questo primo utilizzo non si allontana troppo dai processi di marketing aziendale pensati per trovare un target ottimale: si inizia definendo l’obiettivo e si cerca successivamente di abbinarlo a un modello preciso.

Teoricamente, l'intelligenza artificiale potrebbe essere utilizzata anche durante un attacco per determinare quale attività post compromissione - come la crittografia, il ricatto o il furto di dati - prometta i maggiori profitti. Un modello di IA di categorizzazione, eseguito localmente, potrebbe aiutare in questo caso.

I limiti dell'AI generativa, anche per sferrare attacchi

Come spiegato in precedenza, l'AI generativa non è creativa, in quanto tutto ciò che produce è un remix, a volte complesso, di contenuti su cui è stata addestrata.

Ciò significa che può mostrare agli utenti exploit già pronti, con tanto di spiegazioni e commenti, ma non sarà in grado di generare exploit zero-day dal nulla.

Può però aiutare in altri modi, ad esempio un modello di IA generativa è stato usato per scrivere il codice dei plugin distribuiti durante una competizione Pwn2Own.

ChatGPT è stato adoperato invece per la creazione di varianti polimorfiche di malware, sebbene, anche in questo caso si sia trattato solo di riscritture di contenuti noti appresi durante l'addestramento.

AI generativa è, purtroppo, molto efficace per il  phishing

È nella creazione di contenuti che i modelli di AI generativa si rivelano davvero efficaci. Questi strumenti sono in grado di produrre contenuti di phishing accattivanti e altamente leggibili e senza errori grammaticali.

Il possibile utilizzo dell'intelligenza artificiale generativa per produrre contenuti altamente convincenti per attacchi BEC (Business Email Compromise) e altri attacchi di impersonificazione, è una preoccupazione già sollevata da Europol.

È anche il motivo per cui aziende come Trend Micro continuano a svolgere ricerche intensive nel settore dell''AI, analizzando le azioni degli avversari e sviluppando misure di mitigazione per rilevare e bloccare i loro sforzi in modo più efficace.

Companion utilizza l’AI generativa in modo diverso

Il nuovo assistente di Trend Micro basato sull'intelligenza artificiale generativa, Companion (già disponibile in Trend Vision One) è addestrato su dati strettamente controllati che fanno parte della proprietà di Trend Micro, ed è progettato per essere utilizzato dagli analisti SecOps.

Questi ultimi sono spesso sovraccaricati da avvisi di minacce e hanno difficoltà a gestire il carico di lavoro a causa della carenza di competenze.

La soluzione aiuterà gli utenti, di tutti i livelli di competenza, a essere più produttivi grazie a:

  • Spiegazione e contestualizzazione degli avvisi
  • Gestione e raccomandazione di azioni
  • Decodifica di script complessi
  • Sviluppo e test di query di ricerca complessi

AI e cybersecurity: come criminali informatici e realtà attaccate utilizzano modelli di AI - Ultima modifica: 2023-10-17T11:31:40+02:00 da Nicoletta Buora