HomeIndustria 4.0Digital TransformationAl lavoro per un’intelligenza artificiale guidata dalle scienze umane

Al lavoro per un’intelligenza artificiale guidata dalle scienze umane

Nasce la Fondazione Randstad AI & Humanities per creare maggiori connessioni tra le nuove frontiere dell’intelligenza artificiale e le scienze umane. Borse di studio e collaborazione tra saperi e prospettive per una riflessione critica sul suo ruolo nella società e un uso consapevole e responsabile. Prime partnership con Cambridge University e Unesco.

Ti potrebbero interessare ⇢

Gaia Fiertler

Comprendere limiti, possibilità e implicazioni dell’Intelligenza artificiale applicata al nostro vivere quotidiano, alla ricerca, alla società, alle decisioni pubbliche e private e alle imprese. Con l’obiettivo di contribuire a un uso consapevole di quello che dovrebbe restare un tool, governato dal pensiero critico, autonomo e creativo dell’essere umano.

È questa l’ambizione della Fondazione Randstad AI & Humanities, che nei prossimi anni favorirà con tre linee di azione l’integrazione tra saperi e intelligenze differenti.

Le iniziative della Fondazione Randstad per intelligenza artificiale e scienze umane

La prima linea d’azione è il sostegno alla ricerca, con borse di studio per progetti che indaghino l’impatto sociale, etico e culturale dell’AI. A tal fine sono già state avviate partnership con il “Center for the future of Artificial Intelligence” della Cambridge University e con Unesco, attraverso la Queen Mary University of London, che promuove lo sviluppo etico e inclusivo delle applicazioni AI.

La seconda linea d’azione riguarda indagini sull’impatto dell’AI sul mondo del lavoro e sulla trasformazione delle professioni e delle competenze. La terza stimolerà il dialogo e la collaborazione tra mondo accademico, imprenditoriale e istituzionale con un modello informale (“unconference”) di incontri pubblici e seminari. Il primo appuntamento sarà il 30 gennaio 2025 con “Apologia del futuro”.

Limiti e opportunità dell’intelligenza artificiale

Secondo la Fondazione, oggi c’è un forte sbilanciamento verso una lettura tecnica dell’innovazione tecnologica, mentre serve anche la lente di filosofi, sociologi, psicologi e storici.

«L’obiettivo è duplice. Da un lato, limitare possibili rischi, come bias (pregiudizi) o usi irresponsabili dell’AI. Dall'altro riuscire a sfruttare al meglio e velocemente le opportunità dei nuovi servizi portati dall’avanzamento tecnologico. La sfida è guidare il potere di calcolo e di predittività dell’AI, per non essere dominati e fuorviati da un pensiero appiattente e acritico, che sarebbe dannoso per l’innovazione stessa», spiega Paola Pisano. La Pisano è presidente del Comitato scientifico di Fondazione Randstad AI & Humanities. Inoltre, è professoressa all’Università degli Studi di Torino, già Ministro per l’Innovazione tecnologica e la transizione digitale.

I bias emergenti dell'AI

Un bias emergente dai sistemi di AI è per il esempio il “sycofancy”, ossia il servilismo delle macchine, che tendono a rinforzare le convinzioni degli utenti. Questo è un rischio per l’innovazione stessa che ha invece bisogno di essere stimolata con la contradditorietà, l’errore e non con “camere d’eco” digitali.

C’è un altro limite che i ricercatori stanno rilevando con esperimenti pratici, da Harvard Business School alla Boston University con BCG. La GenAI aumenta velocità e qualità nell’esecuzione di alcuni compiti. Non fa lo stesso però in altri compiti più complessi che richiedono pensiero critico, competenza di dominio e discernimento più a tutto tondo. Per ora almeno.

Fino a prova contraria

Fondazione Randstad Pammoli
Fabio Pammolli (foto credits: Fondazione Randstad)

Anche rispetto al potere predittivo di software e algoritmi, che potrebbe indurre a un troppo facile determinismo scientista, è stata sottolineata l’incompletezza fondativa della “regola”.

Fabio Pammolli, presidente Fondazione AI4I (Istituto Italiano per l’intelligenza artificiale), organismo istituzionale nato lo scorso giugno per favorire il trasferimento tecnologico dell’AI all’industria, ha citato i 73 precetti della regola benedettina.

Per ognuno di essi resta sempre la possibilità di deroga (in quel caso da parte dell’abate). Una discrezionalità tutta umana che resta in capo a un pensiero critico e creativo.  

Al lavoro per un’intelligenza artificiale guidata dalle scienze umane - Ultima modifica: 2024-10-28T09:45:00+01:00 da Gaia Fiertler