Lo studio UCL rivela come l'AI intensifichi sistematicamente i nostri pregiudizi umani.

Tempo di lettura: 2 minuti
Di Maria Astona
- in
Bilanciare l'intelligenza artificiale e i pregiudizi umani.

RomeSistemi di intelligenza artificiale: uno specchio dei nostri pregiudizi

Ricercatori dell'UCL hanno scoperto che i sistemi di intelligenza artificiale (IA) spesso rispecchiano e amplificano i pregiudizi umani. Questo è significativo poiché lo studio dimostra che l'utilizzo di IA con pregiudizi può rendere le persone ancora più influenzate da questi. I pregiudizi tendono a crescere attraverso cicli in cui piccoli pregiudizi nei dati originali si amplificano quando le persone interagiscono con l'IA. Lo studio, pubblicato su Nature Human Behaviour, sottolinea quanto l'IA possa influenzare profondamente il pensiero della società.

Titolo: L'uso dell'IA aumenta il pregiudizio negli esperimenti

Nei vari esperimenti è emerso che l'utilizzo dell'intelligenza artificiale ha accentuato il pregiudizio dei partecipanti. I ricercatori hanno individuato questa tendenza attraverso i loro studi.

Più persone tendevano a vedere volti tristi dopo essere state addestrate su un sistema AI che accentuava questo pregiudizio. Dopo l'esposizione a un’AI con bias di genere, era più comune sovrastimare le capacità degli uomini. Inoltre, l'uso di immagini generate da AI aumentava la probabilità di associare uomini bianchi a lavori di alto prestigio, specialmente in ambiti come la gestione finanziaria.

Dati distorti generano intelligenza artificiale distorta, influenzando il modo in cui le persone pensano e portando a ulteriori distorsioni. Questo fenomeno rappresenta un problema in diversi ambiti, come l'assunzione di personale e le interazioni sociali quotidiane, dove i suggerimenti dell'IA potrebbero influenzare ingiustamente le decisioni delle persone.

Spesso si ritiene che l'intelligenza artificiale sia più precisa degli esseri umani, il che porta a fidarsi dei suoi risultati senza metterli in discussione. Questa fiducia mal riposta può diffondere i pregiudizi più profondamente nella società. Ad esempio, quando l'IA mostra erroneamente certi gruppi più frequentemente in immagini legate al lavoro, può influenzare la percezione che le persone hanno di queste professioni.

La ricerca indica che i sistemi di IA possono migliorare le decisioni umane quando sono precisi e privi di pregiudizi. È essenziale che gli sviluppatori creino algoritmi equilibrati. Lo sviluppo di sistemi di IA dovrebbe concentrarsi sull’essere precisi ed equi per rispondere meglio alle esigenze della società.

L'IA avrà un ruolo sempre più rilevante nelle nostre vite. È fondamentale che chi sviluppa l'IA risolva eventuali problemi di equità, affinché essa contribuisca al progresso della società anziché ostacolarlo. Con la crescente diffusione dell'IA, dobbiamo essere consapevoli di come influenza le nostre percezioni e lavorare per mitigare eventuali effetti negativi. È essenziale che sia i creatori di questi sistemi che gli utenti si assumano la responsabilità di ciò.

Lo studio è pubblicato qui:

http://dx.doi.org/10.1038/s41562-024-02077-2

e la sua citazione ufficiale - inclusi autori e rivista - è

Moshe Glickman, Tali Sharot. How human–AI feedback loops alter human perceptual, emotional and social judgements. Nature Human Behaviour, 2024; DOI: 10.1038/s41562-024-02077-2

Intelligenza Artificiale: Ultime notizie

Condividi questo articolo

Commenti (0)

Pubblica un commento
NewsWorld

NewsWorld.app è un sito di notizie premium gratuito. Forniamo notizie indipendenti e di alta qualità senza addebitare per articolo e senza un modello di abbonamento. NewsWorld ritiene che le notizie generali, di business, economiche, tecnologiche e di intrattenimento dovrebbero essere accessibili a un alto livello gratuitamente. Inoltre, NewsWorld è incredibilmente veloce e utilizza tecnologie avanzate per presentare articoli di notizie in un formato altamente leggibile e attraente per il consumatore.


© 2024 NewsWorld™. Tutti i diritti riservati.