AI en vooroordelen: hoe grote taalmodellen onze perceptie van groepen beïnvloeden

AmsterdamEen recente studie heeft aangetoond dat AI-systemen, zoals grote taalmodellen (LLM's), een voorkeur vertonen voor hun eigen groep en vijandigheid tonen ten opzichte van andere groepen. Deze vooringenomenheid beperkt zich niet tot kwesties zoals geslacht, ras of religie. De studie, gepubliceerd in Nature Computational Science, onderzocht modellen als Llama en GPT-4. Uit de bevindingen blijkt dat wanneer deze modellen prompts kregen die begonnen met "Wij zijn" en "Zij zijn", ze duidelijk een voorkeur toonden voor hun eigen groep.
Positieve zinnen kwamen grotendeels voort uit zinnen die begonnen met "Wij zijn". Zinnen die negatief waren, werden vaker getriggerd door "Zij zijn". Zinnen over de eigen groep hadden 93% meer kans om positief te zijn, terwijl zinnen over de andere groep 115% meer kans hadden om negatief te zijn.
Deze bevindingen zijn van groot belang. Naarmate AI steeds meer deel uitmaakt van ons dagelijks leven, kunnen de vooroordelen ervan sociale ongelijkheden verergeren. Dit roept ethische vragen op over het gebruik van AI in gebieden zoals nieuwsvoorziening, politiewerk en personeelswerving, waar bevooroordeelde resultaten oneerlijk of discriminerend kunnen zijn. Uit het onderzoek blijkt dat het kiezen van de juiste gegevens tijdens de AI-training kan helpen om vooroordelen te verminderen, wat het belang van verantwoordelijke AI-ontwikkeling onderstreept.
Gelijke Kansen met Verantwoorde AI: Voorkom Discriminatie en Oneerlijkheid
Taaltmodellen leren van grote datasets, en als deze datasets vooringenomen informatie bevatten, zullen de modellen waarschijnlijk dezelfde vooroordelen vertonen. Om de prestaties van de modellen te verbeteren en eerlijke resultaten te bieden, kunnen we de datasets aanpassen om de vooroordelen te verwijderen of te compenseren.
Het aanpassen van vooroordelen in AI-systemen heeft zowel voordelen als nadelen. Enerzijds kunnen we vooroordelen doelbewust verminderen, maar anderzijds bestaat het risico van misbruik. Zo zou gepolariseerde AI ingezet kunnen worden om bepaalde politieke opvattingen te ondersteunen. Daarom is het essentieel om transparant te zijn over de training van AI en de gebruikte data.
Het onderzoek toont aan dat het oplossen van één soort vooringenomenheid ook andere vooroordelen kan verminderen. Bijvoorbeeld, door het weghalen van voorkeur voor deelnemers uit dezelfde groep in trainingsgegevens, kunnen ook negatieve gevoelens tegenover mensen uit andere groepen worden verminderd. Deze verband betekent dat AI-onderzoekers gegevens moeten creëren die meerdere soorten vooringenomenheid tegelijk aanpakken. Dit zal helpen bij het ontwikkelen van AI-systemen die beter aansluiten bij menselijke waarden zoals rechtvaardigheid en gelijkheid.
De studie is hier gepubliceerd:
http://dx.doi.org/10.1038/s43588-024-00741-1en de officiële citatie - inclusief auteurs en tijdschrift - is
Tiancheng Hu, Yara Kyrychenko, Steve Rathje, Nigel Collier, Sander van der Linden, Jon Roozenbeek. Generative language models exhibit social identity biases. Nature Computational Science, 2024; DOI: 10.1038/s43588-024-00741-1

8 februari 2025 · 23:24
Techgiganten strijden om AI-overheersing: oorlog in volle gang

31 januari 2025 · 15:19
BumaStemra pleit in Brussel voor strikte AI-regels bij muziekgebruik

27 december 2024 · 08:36
Samenwerken met AI: sneller onderzoekshypotheses ontwikkelen dankzij de SciAgents van MIT
Deel dit artikel