AI och grupptänk: hur maskininlärning förstärker fördomar och påverkar samhället

StockholmEn ny studie har visat att AI-system, såsom stora språkmodeller (LLM), uppvisar bias genom att gynna sin egen grupp och vara fientliga mot andra. Denna bias sträcker sig bortom traditionella frågor som kön, ras eller religion. Studien, publicerad i Nature Computational Science, testade modeller som Llama och GPT-4. Resultaten visade att när dessa modeller fick uppmaningar som började med "Vi är" och "De är," visade de en tydlig benägenhet att föredra sin egen grupp.
- Positiva meningar uppstod oftast från "Vi är"-uppmaningar.
- Negativa meningar kom vanligtvis från "De är"-uppmaningar.
- Meningar som rör den egna gruppen var 93% mer benägna att vara positiva.
- Meningar som rör andra grupper var 115% mer benägna att vara negativa.
Dessa resultat är viktiga. När AI blir en vanlig del av våra liv, kan dess fördomar förvärra sociala klyftor. Detta väcker etiska frågor om att använda AI inom områden som nyheter, polisarbete och rekrytering, där partiska resultat kan bli orättvisa eller diskriminerande. Studien betonar att valet av rätt data vid AI-träning kan minska fördomar och framhäver vikten av ansvarsfull AI-utveckling.
Språkmodeller tränar på stora dataset, och om dessa dataset innehåller partisk information kan modellerna uppvisa samma partiskhet. För att förbättra modellernas prestationer och ge rättvisa resultat kan vi justera dataseten för att ta bort eller utjämna partiskheterna.
Att kunna ändra fördomar i AI-system har både fördelar och nackdelar. Vi kan aktivt arbeta för att minska fördomar, men risken finns att dessa förändringar kan missbrukas. Till exempel kan fördomsfull AI användas för att stödja vissa politiska åsikter. Därför är det viktigt att vara transparent om hur AI tränas och vilken data som används.
Studien visar att om man åtgärdar en typ av partiskhet kan det också minska andra typer av fördomar. Till exempel kan man, genom att eliminera favorisering av deltagare från samma grupp i träningsdata, också minska negativa attityder gentemot personer från andra grupper. Denna koppling innebär att AI-forskare bör skapa data som tar itu med flera typer av partiskhet samtidigt. På så sätt kan man utveckla AI-system som bättre överensstämmer med mänskliga värderingar kring rättvisa och jämlikhet.
Studien publiceras här:
http://dx.doi.org/10.1038/s43588-024-00741-1och dess officiella citering - inklusive författare och tidskrift - är
Tiancheng Hu, Yara Kyrychenko, Steve Rathje, Nigel Collier, Sander van der Linden, Jon Roozenbeek. Generative language models exhibit social identity biases. Nature Computational Science, 2024; DOI: 10.1038/s43588-024-00741-1

8 februari 2025 · 23:24
Techjättarna tar kampen: AI-kriget har just börjat

28 december 2024 · 04:35
Forskare utforskar AI-baserade åldersklockor för att förbättra hälsa och förlänga livslängden
Dela den här artikeln
