Con la votazione dell’AI Act, l’Europa accelera sulla normativa relativa all’intelligenza artificiale (AI).
Non è ancora un atto conclusivo, ma negli ultimi sei mesi c’è stata una decisa accelerazione per regolamentare una materia che si sviluppa rapidamente e può arrivare a livelli di complessità che probabilmente non sapremo districare.
Il rischio è non sapere perché l’AI prenda certe scelte e affidarci a lei ciecamente
Di seguito vi proponiamo il commento di Shalini Kurapati, Co-Founder e Ceo di Clearbox AI, startup tech italiana che aiuta le aziende a lanciare progetti di AI e di Analytics attraverso la generazione di dati sintetici di alta qualità
La complessità di regolamentare l’intelligenza artificiale
Regolamentare l’intelligenza artificiale è proprio un esercizio complesso perché se da un lato bisogna proteggere le persone dai rischi di una tecnologia così potente e complessa, dall’altro non si può – e non si deve – fermare la possibilità di migliorare diversi ambiti della nostra vita quotidiana.
A complicare il tentativo dell’Ue, però, è anche la portata di una norma che, per essere efficace, deve essere riconosciuta a livello globale. Altrimenti rischia di essere agevolmente aggirata.
Infatti le principali società che sviluppano l’AI nel mondo sono oggi Microsoft/Open AI, Google, Meta, Tesla, solo per citarne alcune: un panorama che coinvolge gli Stati Uniti, ma che inizia a coinvolgere anche la Cina.
E gli Stati Uniti, per il momento, non hanno alcuna intenzione di frenare la ricerca e lo sviluppo: per quanto l’amministrazione Biden sia consapevole dei rischi, dopo tanti discorsi tutto ciò che è stato fatto ad oggi – di fatto – sono una serie di misure non legislative che suggeriscono ai colossi dell’AI come dovrebbero comportarsi per auto-regolare la propria tecnologia.
AI Act, tra soluzioni e problematicità
L’idea del Vecchio continente è quella di classificare non tanto gli algoritmi, quanto l’intensità del rischio relativo al loro utilizzo: basso, medio, alto, inaccettabile.
È un primo passo molto utile che serve a vietare quelle tecnologie che hanno un rischio troppo elevato in termini di violazione dei diritti fondamentali delle persone.
Se l’AI viene usata per bloccare lo spam, il rischio è basso, se invece viene usata per la diagnosi e l'analisi delle forme tumorali è evidente che il rischio è molto più alto (può sbagliare, può discriminare, ecc).
Senza dimenticare la possibilità che l’AI venga usata per il social scoring, ovvero per classificare la reputazione delle persone (come fa la Cina per i propri cittadini) - e il rischio per questo utilizzo sarebbe classificato come “inaccettabile”.
È una norma che però presenta almeno una problematicità: dal momento che l’intelligenza artificiale si sviluppa rapidamente, non è sempre facile capire in anticipo se un determinato tipo di software sia pericoloso o meno.
Un esempio su tutti: il caso dei chatbot. Se fino a un paio di anni fa sarebbero stati classificati come algoritmi a basso rischio, oggi con Chat-GPT lo scenario è radicalmente cambiato.
D’altra parte non esisterà mai una legge perfetta e qualunque norma approvata dovrà essere – in qualche modo – flessibile. Capace di adattarsi, o essere adattata, ai cambiamenti della società e agli sviluppi della tecnologia.
Norme condivise: una via efficace
Forse ancora più importante di avere una regolamentazione flessibile è l’urgenza di avere delle norme condivise. Infatti, per quanto l’AI Act possa regolare i software del vecchio continente, non può farlo per quelli che vengono sviluppati in altre nazioni e questo, in un mondo globalizzato, è chiaramente un problema per tutti.
La proposta di raggiungere una cooperazione globale non è nuova: ci sono state delle prime discussioni nel G7 e piani per includere Paesi ricettivi come India, Indonesia e Brasile per andare verso un accordo globale sulla regolamentazione AI e protocolli di sicurezza, ma non abbastanza velocemente. Sono solo piccoli passi, almeno per ora.
Se gli allarmi più o meno esagerati sull’impatto disastroso che l’intelligenza artificiale avrebbe sul mondo si rincorrono da anni, è però vero che, senza scendere in scenari distopici, è ormai prioritario trovare un’intesa su larga scala globale, esattamente come dovrebbe accadere per proteggere il clima.
Verso un’AI più giusta con i dati sintetici
La questione è ampia e complessa: una delle proposte contenute nella bozza dell’AI Act è, per esempio, quella di creare dei processi che si servano dei dati sintetici (che è poi quello che facciamo in Clearbox AI).
Questo aspetto è significativo perché solitamente le regolamentazioni non fanno riferimento diretto a tecniche specifiche. I dati sintetici sono costruiti partendo da dati reali e generandone di nuovi che però mantengono le proprietà statistiche di quelli originali: quindi da un lato permettono di anonimizzare i risultati (quindi non violare la privacy) e dall’altro anche di agire sulla riduzione dei bias.
Anche per questo nell'AI Act c'è molto focus sul dato che sta alla base dell’intelligenza artificiale, la sua qualità e la sua validazione in termini di robustezza e rappresentazione, oltre ai requisiti di data privacy e data minimization.
I dati sintetici hanno il potenziale per giocare un ruolo fondamentale nella realizzazione di questi requisiti verso un'AI sicura e affidabile.
Un’altra strada percorribile è quella di affidare a un ente terzo l’obbligo di certificare periodicamente lo stato dell’arte.
Insomma, l'AI Act europeo è l’apripista nell'istituzione di regole esaustive e applicabili per garantire la sicurezza dell'IA e l'innovazione responsabile.