Divisioni dell'IA: analisi dei pregiudizi nei modelli di apprendimento automatico

RomeUn recente studio ha scoperto che i sistemi di intelligenza artificiale, come i modelli di linguaggio di grandi dimensioni (LLMs), mostrano una parzialità preferendo il proprio gruppo e risultando ostili verso altri. Questa parzialità supera problemi come genere, razza o religione. La ricerca, pubblicata su Nature Computational Science, ha testato LLM come Llama e GPT-4, rivelando che quando questi modelli ricevevano suggerimenti che iniziavano con "Noi siamo" e "Loro sono", mostravano una chiara preferenza per il proprio gruppo rispetto ad altri.
Le frasi positive derivavano prevalentemente dai suggerimenti "Noi siamo". Quelle negative, invece, erano per lo più il risultato dei suggerimenti "Loro sono". Le frasi legate al gruppo interno erano molto più spesso positive, con una probabilità superiore del 93%. Al contrario, quelle legate al gruppo esterno avevano una probabilità del 115% maggiore di essere negative.
Questi risultati sono rilevanti. Con l'integrazione sempre più frequente dell'intelligenza artificiale nella nostra vita quotidiana, i suoi pregiudizi potrebbero accentuare le divisioni sociali. Ciò solleva questioni etiche sull'uso dell'IA in settori come l'informazione, la sicurezza e l'assunzione, dove risultati parziali potrebbero risultare ingiusti o discriminatori. Lo studio evidenzia che adottare dati appropriati durante l'addestramento dell'IA può ridurne i pregiudizi, sottolineando l'importanza di uno sviluppo responsabile dell'intelligenza artificiale.
8 febbraio 2025 · 23:24
Le grandi aziende tech lanciano la guerra: l’era dell’AI è iniziata
I modelli linguistici apprendono da grandi insiemi di dati e, se questi contengono informazioni distorte, è probabile che i modelli presentino gli stessi pregiudizi. Per migliorare le prestazioni e garantire risultati equi, possiamo modificare i dati per eliminare o bilanciare i pregiudizi.
Essere in grado di modificare i pregiudizi nei sistemi di intelligenza artificiale presenta sia vantaggi che svantaggi. Possiamo lavorare per ridurre i bias intenzionalmente, ma esiste anche il rischio che vengano utilizzati in modo improprio. Ad esempio, un'AI con bias potrebbe sostenere determinati orientamenti politici. Pertanto, è fondamentale essere trasparenti su come viene addestrata l'intelligenza artificiale e quali dati vengono impiegati.
Lo studio dimostra che correggere un tipo di pregiudizio può anche ridurre altri pregiudizi. Ad esempio, eliminare il favoritismo verso i partecipanti dello stesso gruppo nei dati di addestramento può ridurre anche i sentimenti negativi verso persone di gruppi diversi. Questa connessione suggerisce che i ricercatori di intelligenza artificiale dovrebbero creare dati che affrontino vari tipi di pregiudizi contemporaneamente. In questo modo, sarà possibile sviluppare sistemi di intelligenza artificiale che si allineino maggiormente ai valori umani di equità e uguaglianza.
Lo studio è pubblicato qui:
http://dx.doi.org/10.1038/s43588-024-00741-1e la sua citazione ufficiale - inclusi autori e rivista - è
Tiancheng Hu, Yara Kyrychenko, Steve Rathje, Nigel Collier, Sander van der Linden, Jon Roozenbeek. Generative language models exhibit social identity biases. Nature Computational Science, 2024; DOI: 10.1038/s43588-024-00741-1

31 gennaio 2025 · 17:49
Crisi a USAID: blocco degli aiuti e cambi nello staff trumpiano

27 dicembre 2024 · 08:36
Collaborare con l'IA per accelerare la ricerca scientifica: l'avvento di SciAgents del MIT
Condividi questo articolo
