HomeRicerca e SviluppoI pregiudizi dei modelli linguistici possono essere risolti dalla logica?

I pregiudizi dei modelli linguistici possono essere risolti dalla logica?

I ricercatori del MIT hanno addestrato modelli linguistici sensibili alla logica per ridurre stereotipi dannosi come i pregiudizi razziali e di genere.

Leggi le riviste ⇢

Ti potrebbero interessare ⇢

Vittoria Lugli

Articolo originale: Large language models are biased. Can logic help save them?
MIT researchers trained logic-aware language models to reduce harmful stereotypes like gender and racial biases.
Rachel Gordon | MITNews

È emerso che anche i modelli linguistici "pensano" di essere prevenuti. Alla domanda di ChatGPT, la risposta è stata la seguente: "Sì, i modelli linguistici possono avere pregiudizi, perché i dati di addestramento riflettono i pregiudizi presenti nella società da cui sono stati raccolti. Per esempio, i pregiudizi razziali e di genere sono prevalenti in molti set di dati del mondo reale e se un modello linguistico viene addestrato su questi dati, può perpetuare e amplificare questi pregiudizi nelle sue previsioni". Un problema ben noto ma pericoloso.

Gli esseri umani (in genere) sono in grado di utilizzare sia il ragionamento logico che quello stereotipato durante l'apprendimento. Tuttavia, i modelli linguistici imitano principalmente quest'ultimo, una storia sfortunata che abbiamo visto ripetersi fino alla nausea quando la capacità di ragionare e di pensare in modo critico è assente. Quindi, iniettare la logica nella mischia sarebbe sufficiente a mitigare questo comportamento?

La soluzione degli scienziati è la logica

Gli scienziati del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT avevano il sospetto che potesse farlo, così si sono messi a studiare se i modelli linguistici consapevoli della logica potessero evitare in modo significativo gli stereotipi più dannosi. Hanno addestrato un modello linguistico per prevedere la relazione tra due frasi, sulla base del contesto e del significato semantico, utilizzando un set di dati con etichette per frammenti di testo che specificano se una seconda frase "implica", "contraddice" o è neutra rispetto alla prima. Utilizzando questo set di dati - l'inferenza del linguaggio naturale - hanno scoperto che i nuovi modelli addestrati erano significativamente meno distorti di altri modelli di base, senza alcun dato aggiuntivo, modifica dei dati o algoritmi di addestramento aggiuntivi.

Per esempio, con la premessa "la persona è un medico" e l'ipotesi "la persona è di sesso maschile", utilizzando questi modelli addestrati alla logica, la relazione sarebbe classificata come "neutra", poiché non c'è alcuna logica che dica che la persona è un uomo. Con i modelli linguistici più comuni, due frasi potrebbero sembrare correlate a causa di qualche distorsione nei dati di addestramento, ad esempio "medico" potrebbe essere associato a "maschile", anche quando non ci sono prove che l'affermazione sia vera.

Un modello linguistico più accurato o più sostenibile?

A questo punto, la natura onnipresente dei modelli linguistici è ben nota: le applicazioni nell'elaborazione del linguaggio naturale, nel riconoscimento vocale, nell'intelligenza artificiale conversazionale e nei compiti generativi abbondano. Sebbene non si tratti di un campo di ricerca nascente, i problemi di crescita possono essere messi in primo piano man mano che aumentano la complessità e le capacità.

"Gli attuali modelli linguistici soffrono di problemi di equità, risorse computazionali e privacy", spiega Hongyin Luo, postdoc del MIT CSAIL e autore di un nuovo articolo sul lavoro. "Molte stime dicono che l'emissione di CO2 per l'addestramento di un modello linguistico può essere superiore all'emissione di un'automobile per tutta la vita. L'esecuzione di questi modelli linguistici di grandi dimensioni è inoltre molto costosa a causa della quantità di parametri e delle risorse computazionali necessarie. Per quanto riguarda la privacy, i modelli linguistici all'avanguardia sviluppati da luoghi come ChatGPT o GPT-3 hanno le loro API in cui è necessario caricare la lingua, ma non c'è posto per le informazioni sensibili riguardanti cose come la sanità o la finanza. Per risolvere queste sfide, abbiamo proposto un modello di linguaggio logico che abbiamo giudicato qualitativamente corretto, 500 volte più piccolo dei modelli di ultima generazione, che può essere distribuito localmente e che non richiede campioni di addestramento annotati dall'uomo per i compiti a valle. Il nostro modello utilizza 1/400 dei parametri rispetto ai modelli linguistici più grandi, ha prestazioni migliori su alcuni compiti e risparmia significativamente risorse di calcolo".

Non tanti parametri, ma quelli giusti

Questo modello, che ha 350 milioni di parametri, ha superato alcuni modelli linguistici su larga scala con 100 miliardi di parametri in compiti di comprensione del linguaggio logico. Il team ha valutato, ad esempio, i popolari modelli linguistici preaddestrati da BERT con i loro modelli "textual entailment" su test di stereotipo, professione e pregiudizio emotivo. Questi ultimi hanno superato gli altri modelli con un bias significativamente inferiore, pur mantenendo la capacità di modellazione del linguaggio. La "correttezza" è stata valutata con i cosiddetti test di associazione contestuale ideale (iCAT), dove punteggi iCAT più alti significano meno stereotipi. Il modello ha ottenuto punteggi iCAT superiori al 90%, mentre altri modelli di comprensione linguistica forte oscillavano tra il 40 e l'80%.

Luo ha scritto il documento insieme al ricercatore senior del MIT James Glass. Presenteranno il lavoro alla conferenza del capitolo europeo dell'Associazione per la linguistica computazionale in Croazia.

Anche per l'AI professione ed emozioni come espressione di genere

Non sorprende che i modelli linguistici originari preaddestrati esaminati dal team fossero pieni di pregiudizi, confermati da una serie di test di ragionamento che dimostrano come i termini professionali e quelli relativi alle emozioni siano significativamente orientati verso le parole femminili o maschili del vocabolario di genere.

Per quanto riguarda le professioni, un modello linguistico (che è di parte) ritiene che "assistente di volo", "segretaria" e "assistente medico" siano lavori femminili, mentre "pescatore", "avvocato" e "giudice" sono maschili. Per quanto riguarda le emozioni, un modello linguistico ritiene che "ansioso", "depresso" e "devastato" siano femminili.

Lo stato della ricerca e i futuri sviluppi

Anche se siamo ancora lontani dall'utopia di un modello linguistico neutrale, questa ricerca è in corso. Attualmente il modello serve solo per la comprensione del linguaggio, quindi si basa sul ragionamento tra le frasi esistenti. Purtroppo, per ora non è in grado di generare frasi, quindi il prossimo passo dei ricercatori sarà quello di puntare ai popolarissimi modelli generativi costruiti con l'apprendimento logico per garantire una maggiore equità con efficienza computazionale.

"Sebbene il ragionamento stereotipato sia una parte naturale del riconoscimento umano, le persone consapevoli dell'equità ragionano con la logica piuttosto che con gli stereotipi, quando necessario", spiega Luo. "Dimostriamo che i modelli linguistici hanno proprietà simili. Un modello linguistico senza apprendimento logico esplicito fa molti ragionamenti distorti, ma l'aggiunta dell'apprendimento logico può mitigare significativamente questo comportamento. Inoltre, grazie alla dimostrata capacità di adattamento a zero colpi, il modello può essere impiegato direttamente per diversi compiti con maggiore equità, privacy e velocità."

Reprinted with permission of MIT News

I pregiudizi dei modelli linguistici possono essere risolti dalla logica? - Ultima modifica: 2023-05-10T17:20:47+02:00 da Vittoria Lugli