AI och grupptänk: hur maskininlärning förstärker fördomar och påverkar samhället

Lästid: 2 minuter
Av Pedro Martinez
- i
Vågar som balanserar AI-symboler och silhuetter av mänskliga hjärnor.

StockholmEn ny studie har visat att AI-system, såsom stora språkmodeller (LLM), uppvisar bias genom att gynna sin egen grupp och vara fientliga mot andra. Denna bias sträcker sig bortom traditionella frågor som kön, ras eller religion. Studien, publicerad i Nature Computational Science, testade modeller som Llama och GPT-4. Resultaten visade att när dessa modeller fick uppmaningar som började med "Vi är" och "De är," visade de en tydlig benägenhet att föredra sin egen grupp.

  • Positiva meningar uppstod oftast från "Vi är"-uppmaningar.
  • Negativa meningar kom vanligtvis från "De är"-uppmaningar.
  • Meningar som rör den egna gruppen var 93% mer benägna att vara positiva.
  • Meningar som rör andra grupper var 115% mer benägna att vara negativa.

Dessa resultat är viktiga. När AI blir en vanlig del av våra liv, kan dess fördomar förvärra sociala klyftor. Detta väcker etiska frågor om att använda AI inom områden som nyheter, polisarbete och rekrytering, där partiska resultat kan bli orättvisa eller diskriminerande. Studien betonar att valet av rätt data vid AI-träning kan minska fördomar och framhäver vikten av ansvarsfull AI-utveckling.

Språkmodeller tränar på stora dataset, och om dessa dataset innehåller partisk information kan modellerna uppvisa samma partiskhet. För att förbättra modellernas prestationer och ge rättvisa resultat kan vi justera dataseten för att ta bort eller utjämna partiskheterna.

Att kunna ändra fördomar i AI-system har både fördelar och nackdelar. Vi kan aktivt arbeta för att minska fördomar, men risken finns att dessa förändringar kan missbrukas. Till exempel kan fördomsfull AI användas för att stödja vissa politiska åsikter. Därför är det viktigt att vara transparent om hur AI tränas och vilken data som används.

Studien visar att om man åtgärdar en typ av partiskhet kan det också minska andra typer av fördomar. Till exempel kan man, genom att eliminera favorisering av deltagare från samma grupp i träningsdata, också minska negativa attityder gentemot personer från andra grupper. Denna koppling innebär att AI-forskare bör skapa data som tar itu med flera typer av partiskhet samtidigt. På så sätt kan man utveckla AI-system som bättre överensstämmer med mänskliga värderingar kring rättvisa och jämlikhet.

Studien publiceras här:

http://dx.doi.org/10.1038/s43588-024-00741-1

och dess officiella citering - inklusive författare och tidskrift - är

Tiancheng Hu, Yara Kyrychenko, Steve Rathje, Nigel Collier, Sander van der Linden, Jon Roozenbeek. Generative language models exhibit social identity biases. Nature Computational Science, 2024; DOI: 10.1038/s43588-024-00741-1

Artificiell Intelligens: Senaste nytt

Dela den här artikeln

Kommentarer (0)

Posta en kommentar
NewsWorld

NewsWorld.app är en gratis premium nyhetssida. Vi tillhandahåller oberoende och högkvalitativa nyheter utan att ta betalt per artikel och utan en prenumerationsmodell. NewsWorld anser att allmänna, affärs-, ekonomiska, tekniska och underhållningsnyheter bör vara tillgängliga på en hög nivå gratis. Dessutom är NewsWorld otroligt snabb och använder avancerad teknik för att presentera nyhetsartiklar i ett mycket läsbart och attraktivt format för konsumenten.


© 2024 NewsWorld™. Alla rättigheter reserverade.