Il 26 dicembre 2024 la Corea del Sud ha adottato il Basic Act on the Development of Artificial Intelligence and the Establishment of Trust (AI Basic Act), una legislazione pionieristica che mira a regolamentare lo sviluppo e l'uso dell'intelligenza artificiale (AI) all'interno del Paese, che entrerà in vigore a gennaio 2026. L'AI Basic Act, che segna un momento cruciale nella regolamentazione dell’AI a livello globale, si propone come obiettivo di bilanciare la promozione dell'innovazione con la tutela dei diritti fondamentali.
La situazione fino ad ora
La Corea del Sud, da decenni uno dei leader globali nell'innovazione tecnologica, non aveva ancora una normativa organica specifica per l'intelligenza artificiale. La regolamentazione del settore era frammentata e limitata ad ambiti specifici.
Questo approccio non sistematico rischiava di creare vuoti normativi in un campo in rapida evoluzione, sollevando preoccupazioni sia per gli sviluppatori che per i cittadini. L'assenza di una legislazione specifica aveva inoltre generato incertezza per le imprese tecnologiche, che non sapevano con chiarezza quali fossero i limiti legali nello sviluppo e nell'utilizzo dell'AI. Questo contesto aveva spinto il governo a prendere provvedimenti per colmare il divario normativo, ponendo al centro del dibattito pubblico la necessità di una legge quadro.
Disciplina sull’AI in vigore fino al gennaio 2026
Prima dell’introduzione dell'AI Basic Act, la disciplina relativa all’Intelligenza Artificiale era limitata ad alcuni settori, ad esempio:
- il Personal Information Protection Act (PIPA), che garantisce agli individui il diritto di opporsi alle decisioni automatizzate che incidono in modo significativo sui loro diritti o obblighi;
- il Public Official Election Act che proibisce l'uso di immagini o video deepfake generati dall'intelligenza nelle campagne elettorali;
- il General Act on Public Administration che promuove la digitalizzazione dell’AI, consentendo l'uso di sistemi completamente automatizzati (inclusi quelli che utilizzano l'IA) per l’adozione di provvedimenti. Tuttavia, stabilisce anche che le decisioni prese da tali sistemi devono essere fondate sulla legge, assicurando che l'IA non violi i diritti fondamentali.
Strategie e standard etici
Il tentativo coreano di disciplinare l’AI è iniziato nel 2019, anno in cui è stata introdotta la National Strategy for AI, con cui il governo della Corea del Sud ha delineato la propria visione e strategia per l'era emergente dell'AI. La strategia si concentra su diverse aree chiave:
- Investimenti nelle tecnologie dei semiconduttori: rafforzare la competitività della Corea nell'intelligenza artificiale;
- Sviluppo del sistema: dotare i cittadini delle competenze fondamentali in materia di intelligenza artificiale;
- Miglioramento del servizio pubblico: promozione del governo digitale basato sull'intelligenza artificiale; e
- Linee guida etiche: promuovere un'era di intelligenza artificiale incentrata sulle persone attraverso standard etici consolidati.
Alla National Strategy for AI ha fatto seguito, nel 2020, l’adozione di standard etici per l'IA, che stabiliscono tre principi fondamentali (principio della dignità umana, principio dell’interesse pubblico della società, e principio di appropriatezza tecnologica) e dieci requisiti fondamentali (diritti umani, privacy, diversità, non violazione, interesse pubblico, solidarietà, governance dei dati, responsabilità, sicurezza e trasparenza). Questi principi e requisiti, che devono essere soddisfatti durante lo sviluppo e l’utilizzo dell’AI, sono volti a promuovere “l'umanità” come valore più alto nell’AI human-centered.
AI Basic Act: a che punto dell'iter siamo
L'AI Basic Act è stato approvato il 26 dicembre 2024 ed entrerà ufficialmente in vigore nel gennaio 2026.
Durante il 2025, il governo coreano si concentrerà su diverse attività fondamentali per garantire una transizione fluida verso il nuovo quadro normativo:
Definizione delle linee guida specifiche
L’approvazione della legge è un primo passo essenziale, ma il suo successo dipende dalla definizione di regolamenti e linee guida dettagliate. Fondamentale a questo scopo sarà definire la portata dell’“intelligenza artificiale ad alto impatto” e stabilire criteri chiari per la sua identificazione e regolamentazione. Trovare il giusto equilibrio tra chiarezza normativa e flessibilità sarà essenziale per evitare sia restrizioni eccessive che lacune di supervisione.
Istituzione di autorità di vigilanza
Verranno create o rafforzate le agenzie incaricate di monitorare l'applicazione della legge e di valutare i rischi associati ai sistemi AI.
Programmi di formazione e sensibilizzazione
Il governo lancerà campagne per educare il pubblico e i professionisti del settore sulle implicazioni dell'AI Basic Act.
Collaborazione con il settore privato
Saranno avviate consultazioni con aziende tecnologiche e accademici per raccogliere feedback e migliorare l'applicazione della legge.
Caratteristiche principali dell'AI Basic Act
L'AI Basic Act coreano si distingue per alcune caratteristiche:
- Classificazione dei rischi: La legge adotta un approccio basato sul rischio, classificando i sistemi AI in base al loro potenziale impatto sui diritti fondamentali e sulla sicurezza pubblica. Sistemi ad alto rischio, come quelli utilizzati in ambito medico o giudiziario, saranno soggetti a requisiti più stringenti.
- Trasparenza e responsabilità: Gli sviluppatori dovranno garantire la trasparenza degli algoritmi e fornire spiegazioni comprensibili sul funzionamento dei sistemi AI.
- Protezione dei diritti umani: La normativa include disposizioni specifiche per prevenire discriminazioni e violazioni dei diritti fondamentali derivanti dall'uso dell'AI.
- Promozione dell'innovazione: L'AI Basic Act prevede incentivi per le imprese che rispettano gli standard etici e normativi, con l'obiettivo di stimolare lo sviluppo di tecnologie AI sicure e affidabili.
I requisiti nella legislazione
Articoli della legislazione | Titolo dell'articolo | Descrizione |
---|---|---|
Articolo 31 | Requisito di trasparenza | Le aziende devono informare gli utenti in anticipo che i prodotti o servizi forniti sono basati sull'AI. Per i sistemi di AI generativa, devono indicare che l'output è creato artificialmente, inclusi i deepfake. |
Articolo 32 | Requisiti di sicurezza (per sistemi di AI su larga scala) | I fornitori devono implementare misure di identificazione, valutazione e mitigazione dei rischi in ogni fase del ciclo di vita dell'AI, creare un sistema di monitoraggio e gestione dei rischi e presentare i risultati al Ministro. |
Articolo 33 | Conferma dell'impatto | Le aziende devono condurre una valutazione preliminare per stabilire se i sistemi di AI si qualificano come ad alto impatto e, se necessario, chiedere conferma al Ministro. |
Articolo 34 | Requisiti di sicurezza e affidabilità (per AI ad alto impatto) | Le aziende devono: attuare un piano di gestione del rischio, spiegare il sistema di AI, proteggere gli utenti, garantire supervisione umana, mantenere documentazione e svolgere compiti definiti dal Comitato nazionale per l'AI. |
Articolo 35 | Valutazione dell'impatto (per AI ad alto impatto) | Le aziende devono condurre una valutazione preventiva dell'impatto sui diritti fondamentali. Per i prodotti destinati al governo, la priorità va ai sistemi di AI ad alto impatto che hanno superato tali valutazioni. |
Articolo 36 | Designazione del rappresentante locale | Le imprese straniere che superano la soglia stabilita dalla legge devono designare un rappresentante locale responsabile della sicurezza dei sistemi di AI su larga scala, della conferma ministeriale e del supporto per misure di affidabilità. |
Critiche all'AI Basic Act
Nonostante le sue ambizioni, l'AI Basic Act ha ricevuto alcune critiche:
- Ambiguità normativa: Alcuni esperti hanno sottolineato che alcune disposizioni dell'AI Basic Act sono troppo vaghe, lasciando spazio a interpretazioni soggettive che potrebbero generare incertezza. In particolare, generano preoccupazione le esenzioni per l’AI legata alla difesa e alla sicurezza, con il rischio di ambiguità e scappatoie nei decreti presidenziali.
- Onere per le piccole e medie imprese (PMI): I requisiti di conformità, soprattutto per i sistemi ad alto rischio, potrebbero risultare onerosi per le PMI, limitandone la competitività.
- Eccessiva centralizzazione: Alcuni critici temono che il ruolo dominante delle autorità di vigilanza possa soffocare l'innovazione e rallentare lo sviluppo tecnologico.
- Ampia autorità investigativa: Le aziende temono incertezze normative e rischi per la riservatezza a causa dei poteri investigativi del Ministero delle Scienze e delle
Tecnologie dell'informazione e della comunicazione. - Meccanismi di applicazione deboli: Le organizzazioni civili criticano l'assenza di sanzioni e restrizioni chiare contro l'uso dannoso dell'AI, chiedendo normative più rigorose, che saranno oggetto di perfezionamento futuro.
- Disaccordi interministeriali: Il Ministero della Cultura evidenzia problemi di copyright legati all’AI generativa e richiede maggiore trasparenza sui dati di formazione. Inoltre, la Korean Publishers Association chiede ulteriori discussioni e modifiche al Copyright Act.
Similitudini e differenze con l'AI Act europeo
L'AI Basic Act presentato in Corea presenta alcune similitudini con l'AI Act europeo, ma anche differenze significative che riflettono approcci normativi distinti
Similitudini | Differenze |
---|---|
La trasparenza è un principio cardine di entrambe le normative, con requisiti che impongono agli sviluppatori di spiegare chiaramente il funzionamento degli algoritmi. | L'AI Basic Act non vieta del tutto alcun tipo specifico di sistema di AI. Al contrario, l'EU AI Act categorizza i rischi di AI in quattro livelli (rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo) e vieta esplicitamente i sistemi di AI considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti fondamentali delle persone. |
Sia l'AI Basic Act coreano sia l'AI Act europeo includono disposizioni per prevenire discriminazioni e violazioni dei diritti umani derivanti dall'uso dell'AI. | L'AI Act europeo è più dettagliato e prescrittivo, mentre la legge coreana adotta un approccio più flessibile, con linee guida che saranno sviluppate successivamente. |
Entrambi i testi normativi adottano un approccio basato sul rischio, classificando i sistemi AI in base al loro potenziale impatto su diritti fondamentali e sicurezza pubblica. | Applicazione extraterritoriale: L'AI Act europeo ha una portata extraterritoriale più marcata, applicandosi anche a imprese non europee che offrono servizi nell'UE, un aspetto meno enfatizzato nell'AI Basic Act. |
Problemi per la cooperazione tra UE e Corea?
La divergenza tra l'AI Basic Act coreano e l'AI Act europeo potrebbe creare ostacoli alla cooperazione, soprattutto per quanto riguarda il riconoscimento reciproco degli standard normativi. Le imprese che operano in entrambi i mercati potrebbero trovarsi a dover rispettare regole diverse e potenzialmente conflittuali. Tuttavia, la Corea del Sud e l'UE hanno già dimostrato in passato una forte volontà di collaborazione tecnologica, come dimostra l'accordo di partenariato strategico firmato nel 2020. In questo contesto, è probabile che vengano avviati dialoghi bilaterali per armonizzare le normative e facilitare gli scambi.
L'AI Basic Act rappresenta un passo importante per la Corea del Sud nella regolamentazione dell'intelligenza artificiale, con implicazioni rilevanti sia a livello nazionale sia internazionale. Sebbene presenti alcune criticità, la legge offre una base solida per promuovere un uso responsabile e innovativo dell'AI. Resta da vedere come evolverà l'interazione tra le normative coreane ed europee e quali saranno gli effetti sul panorama globale dell'AI.