AI en vooroordelen: hoe grote taalmodellen onze perceptie van groepen beïnvloeden

Leestijd: 2 minuten
Door Meindert van der Veen
- in
Weegschalen die AI-symbolen en silhouetten van een menselijk brein balanceren.

AmsterdamEen recente studie heeft aangetoond dat AI-systemen, zoals grote taalmodellen (LLM's), een voorkeur vertonen voor hun eigen groep en vijandigheid tonen ten opzichte van andere groepen. Deze vooringenomenheid beperkt zich niet tot kwesties zoals geslacht, ras of religie. De studie, gepubliceerd in Nature Computational Science, onderzocht modellen als Llama en GPT-4. Uit de bevindingen blijkt dat wanneer deze modellen prompts kregen die begonnen met "Wij zijn" en "Zij zijn", ze duidelijk een voorkeur toonden voor hun eigen groep.

Positieve zinnen kwamen grotendeels voort uit zinnen die begonnen met "Wij zijn". Zinnen die negatief waren, werden vaker getriggerd door "Zij zijn". Zinnen over de eigen groep hadden 93% meer kans om positief te zijn, terwijl zinnen over de andere groep 115% meer kans hadden om negatief te zijn.

Deze bevindingen zijn van groot belang. Naarmate AI steeds meer deel uitmaakt van ons dagelijks leven, kunnen de vooroordelen ervan sociale ongelijkheden verergeren. Dit roept ethische vragen op over het gebruik van AI in gebieden zoals nieuwsvoorziening, politiewerk en personeelswerving, waar bevooroordeelde resultaten oneerlijk of discriminerend kunnen zijn. Uit het onderzoek blijkt dat het kiezen van de juiste gegevens tijdens de AI-training kan helpen om vooroordelen te verminderen, wat het belang van verantwoordelijke AI-ontwikkeling onderstreept.

Gelijke Kansen met Verantwoorde AI: Voorkom Discriminatie en Oneerlijkheid

Taaltmodellen leren van grote datasets, en als deze datasets vooringenomen informatie bevatten, zullen de modellen waarschijnlijk dezelfde vooroordelen vertonen. Om de prestaties van de modellen te verbeteren en eerlijke resultaten te bieden, kunnen we de datasets aanpassen om de vooroordelen te verwijderen of te compenseren.

Het aanpassen van vooroordelen in AI-systemen heeft zowel voordelen als nadelen. Enerzijds kunnen we vooroordelen doelbewust verminderen, maar anderzijds bestaat het risico van misbruik. Zo zou gepolariseerde AI ingezet kunnen worden om bepaalde politieke opvattingen te ondersteunen. Daarom is het essentieel om transparant te zijn over de training van AI en de gebruikte data.

Het onderzoek toont aan dat het oplossen van één soort vooringenomenheid ook andere vooroordelen kan verminderen. Bijvoorbeeld, door het weghalen van voorkeur voor deelnemers uit dezelfde groep in trainingsgegevens, kunnen ook negatieve gevoelens tegenover mensen uit andere groepen worden verminderd. Deze verband betekent dat AI-onderzoekers gegevens moeten creëren die meerdere soorten vooringenomenheid tegelijk aanpakken. Dit zal helpen bij het ontwikkelen van AI-systemen die beter aansluiten bij menselijke waarden zoals rechtvaardigheid en gelijkheid.

De studie is hier gepubliceerd:

http://dx.doi.org/10.1038/s43588-024-00741-1

en de officiële citatie - inclusief auteurs en tijdschrift - is

Tiancheng Hu, Yara Kyrychenko, Steve Rathje, Nigel Collier, Sander van der Linden, Jon Roozenbeek. Generative language models exhibit social identity biases. Nature Computational Science, 2024; DOI: 10.1038/s43588-024-00741-1

Artificial Intelligence: Laatste nieuws

Deel dit artikel

Reacties (0)

Plaats een reactie
NewsWorld

NewsWorld.app is dé gratis premium nieuwssite van Nederland. Wij bieden onafhankelijk en kwalitatief hoogwaardig nieuws zonder daarvoor geld per artikel te rekenen en zonder abonnementsvorm. NewsWorld is van mening dat zowel algemeen, zakelijk, economisch, tech als entertainment nieuws op een hoog niveau gratis toegankelijk moet zijn. Daarbij is NewsWorld razend snel en werkt het met geavanceerde technologie om de nieuwsartikelen in een zeer leesbare en attractieve vorm aan te bieden aan de consument. Dus wil je gratis nieuws zonder betaalmuur (paywall), dan ben je bij NewsWorld aan het goede adres. Wij blijven ons inzetten voor hoogwaardige gratis artikelen zodat jij altijd op de hoogte kan blijven!


© 2024 NewsWorld™. Alle rechten voorbehouden.