“Ciò di cui l'intelligenza artificiale ha bisogno ora, più di ogni altra cosa, è un’iniezione di umiltà". Roberto Carrozzo, Head of Intelligence & Data Minsait, riprende le parole dell'informatico Michael Wooldridge utilizzate in risposta "al coro di guru e futuristi che insistono nel consacrare questa tecnologia come La Grande Minaccia o La Grande Speranza dell’umanità".
"La verità è che non sappiamo se riusciremo mai a raggiungere un’intelligenza artificiale 'forte' o 'generale', con autocoscienza e modi di pensare complessi pari o superiori a quelli umani", prosegue Carrozzo.
"Quella che abbiamo oggi è un’intelligenza artificiale 'debole', che presenta già sfide importanti e un enorme potenziale per contribuire a migliorare le nostre economie e società. Il buon uso di questo strumento richiede una riflessione etica e un dibattito democratico sui suoi scopi, usi e contesti".
Verso un umanesimo digitale
"Questa riflessione sull’intelligenza artificiale per il bene comune implica che ci si interroghi sul ruolo che la tecnologia dovrebbe avere nel nostro futuro e, per estensione, sul futuro che vogliamo costruire con essa", sottolinea Carrozzo.
"Per molti rappresenta un pilastro del cosiddetto Umanesimo Digitale. Lo ha espresso al meglio Giovanni Lo Storto, direttore generale dell’università Luiss di Roma, per il quale il nuovo umanesimo 'non può rinunciare alla ricerca del significato profondo e dell’impatto della tecnologia, che spesso accettiamo acriticamente'. Tre concetti possono forse aiutarci a ordinare questa riflessione".
Partire dal concetto di uguaglianza
"Il primo è il concetto di uguaglianza", argomenta Carrozzo. "Forse a causa della preminenza della ricerca statunitense, le obiezioni ai sistemi di IA hanno posto l’accento sulla non discriminazione, sulla correzione dei pregiudizi sulla base dell’etnia, del luogo di provenienza o del genere. La discriminazione nei sistemi di intelligenza artificiale è stata messa in discussione dopo il caso del sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), utilizzato dal Dipartimento di Giustizia degli Stati Uniti per determinare il rischio di recidiva dei detenuti. A causa di un pregiudizio nell’algoritmo (opportunamente rafforzato in seguito dai pregiudizi dei giudici che interpretavano le raccomandazioni del sistema), il COMPAS suggeriva che i neri erano a maggior rischio di recidiva rispetto ai loro concittadini bianchi. Da allora si sono accumulati casi di sistemi discriminatori causati da pregiudizi dei programmatori o dai dati distorti che 'addestrano' gli algoritmi".
"Gli sforzi per combattere i pregiudizi nell’IA sono lodevoli e necessari. Ma la giustizia algoritmica deve andare oltre. Perché la provenienza o il genere non sono le uniche fonti di discriminazione ed esclusione, che in molti casi sono radicate nella povertà e nella disuguaglianza. E perché la non discriminazione non sempre equivale all’uguaglianza. La giustizia algoritmica può e deve anche combattere la discriminazione e l’esclusione causate dalla disuguaglianza e dalla povertà e diventare uno strumento di equità e giustizia sociale".
L'IA etica è al servizio della dignità umana
"Il secondo concetto deriva dal precedente: la dignità, intesa come l’opposto di disuguaglianza, esclusione, discriminazione e violenza. Uno dei pilastri del nostro modello di convivenza e 'pietra angolare del nostro impegno' civile, secondo le parole del Presidente Sergio Mattarella durante il suo discorso di accettazione della Presidenza della Repubblica. Un’IA etica, come pilastro dell’Umanesimo Digitale, deve essere al servizio della dignità umana".
Cosa significa responsabilità
"Il terzo concetto è quello di responsabilità, che deriva dall’autonomia e senza il quale non c’è agency morale. Solo se avessimo un’IA 'forte', con sistemi autoconsapevoli e autonomi, potremmo parlare di vera responsabilità dei sistemi di intelligenza artificiale. Oggi siamo ancora lontani da questo scenario (se mai si realizzerà): le decisioni prese dai nostri sistemi di IA possono avere conseguenze e implicazioni morali, ma sono decisioni guidate o programmate e non il risultato di una capacità di giudizio autonoma, cioè di una piena agenzia morale. Da qui l’importanza di delimitare le responsabilità degli attuali sistemi di IA, uno dei punti centrali della futura legislazione europea in materia: infatti, a tal proposito, nel quadro legislativo attualmente in discussione a Bruxelles l’accountability viene riversata sugli attori che danno forma all’IA".
"Uguaglianza, dignità e responsabilità: tre concetti che potrebbero aiutarci a riflettere sull’intelligenza artificiale che vogliamo. I sistemi di intelligenza artificiale (o, piuttosto, alcuni degli apologeti dell'intelligenza artificiale) possono aver bisogno, come ha sottolineato Wooldridge, di un’iniezione di umiltà, ma ciò di cui tutti noi abbiamo certamente bisogno è un’iniezione di etica", conclude Carrozzo.