Divisioni dell'IA: analisi dei pregiudizi nei modelli di apprendimento automatico

Tempo di lettura: 2 minuti
Di Maria Astona
- in
Bilance che equilibrano simboli di intelligenza artificiale e silhouette di cervelli umani.

RomeUn recente studio ha scoperto che i sistemi di intelligenza artificiale, come i modelli di linguaggio di grandi dimensioni (LLMs), mostrano una parzialità preferendo il proprio gruppo e risultando ostili verso altri. Questa parzialità supera problemi come genere, razza o religione. La ricerca, pubblicata su Nature Computational Science, ha testato LLM come Llama e GPT-4, rivelando che quando questi modelli ricevevano suggerimenti che iniziavano con "Noi siamo" e "Loro sono", mostravano una chiara preferenza per il proprio gruppo rispetto ad altri.

Le frasi positive derivavano prevalentemente dai suggerimenti "Noi siamo". Quelle negative, invece, erano per lo più il risultato dei suggerimenti "Loro sono". Le frasi legate al gruppo interno erano molto più spesso positive, con una probabilità superiore del 93%. Al contrario, quelle legate al gruppo esterno avevano una probabilità del 115% maggiore di essere negative.

Questi risultati sono rilevanti. Con l'integrazione sempre più frequente dell'intelligenza artificiale nella nostra vita quotidiana, i suoi pregiudizi potrebbero accentuare le divisioni sociali. Ciò solleva questioni etiche sull'uso dell'IA in settori come l'informazione, la sicurezza e l'assunzione, dove risultati parziali potrebbero risultare ingiusti o discriminatori. Lo studio evidenzia che adottare dati appropriati durante l'addestramento dell'IA può ridurne i pregiudizi, sottolineando l'importanza di uno sviluppo responsabile dell'intelligenza artificiale.

I modelli linguistici apprendono da grandi insiemi di dati e, se questi contengono informazioni distorte, è probabile che i modelli presentino gli stessi pregiudizi. Per migliorare le prestazioni e garantire risultati equi, possiamo modificare i dati per eliminare o bilanciare i pregiudizi.

Essere in grado di modificare i pregiudizi nei sistemi di intelligenza artificiale presenta sia vantaggi che svantaggi. Possiamo lavorare per ridurre i bias intenzionalmente, ma esiste anche il rischio che vengano utilizzati in modo improprio. Ad esempio, un'AI con bias potrebbe sostenere determinati orientamenti politici. Pertanto, è fondamentale essere trasparenti su come viene addestrata l'intelligenza artificiale e quali dati vengono impiegati.

Lo studio dimostra che correggere un tipo di pregiudizio può anche ridurre altri pregiudizi. Ad esempio, eliminare il favoritismo verso i partecipanti dello stesso gruppo nei dati di addestramento può ridurre anche i sentimenti negativi verso persone di gruppi diversi. Questa connessione suggerisce che i ricercatori di intelligenza artificiale dovrebbero creare dati che affrontino vari tipi di pregiudizi contemporaneamente. In questo modo, sarà possibile sviluppare sistemi di intelligenza artificiale che si allineino maggiormente ai valori umani di equità e uguaglianza.

Lo studio è pubblicato qui:

http://dx.doi.org/10.1038/s43588-024-00741-1

e la sua citazione ufficiale - inclusi autori e rivista - è

Tiancheng Hu, Yara Kyrychenko, Steve Rathje, Nigel Collier, Sander van der Linden, Jon Roozenbeek. Generative language models exhibit social identity biases. Nature Computational Science, 2024; DOI: 10.1038/s43588-024-00741-1

Intelligenza Artificiale: Ultime notizie

Condividi questo articolo

Commenti (0)

Pubblica un commento
NewsWorld

NewsWorld.app è un sito di notizie premium gratuito. Forniamo notizie indipendenti e di alta qualità senza addebitare per articolo e senza un modello di abbonamento. NewsWorld ritiene che le notizie generali, di business, economiche, tecnologiche e di intrattenimento dovrebbero essere accessibili a un alto livello gratuitamente. Inoltre, NewsWorld è incredibilmente veloce e utilizza tecnologie avanzate per presentare articoli di notizie in un formato altamente leggibile e attraente per il consumatore.


© 2024 NewsWorld™. Tutti i diritti riservati.