Künstliche Intelligenz und Vorurteile: Herausforderungen und Chancen für eine gerechte Technologieentwicklung

BerlinEine neue Studie zeigt, dass KI-Systeme, insbesondere große Sprachmodelle (LLMs), durch ein Vorurteil auffallen, indem sie ihre eigene Gruppe bevorzugen und anderen Gruppen feindlich gegenüberstehen. Dieses Vorurteil geht über Themen wie Geschlecht, Rasse oder Religion hinaus. Die in Nature Computational Science veröffentlichte Untersuchung testete LLMs wie Llama und GPT-4. Es wurde festgestellt, dass diese Modelle bei Vorgaben mit den Anfangsworten "Wir sind" und "Sie sind" eine klare Tendenz zeigten, die eigene Gruppe zu bevorzugen.
Verärgerung in der Sprache: Einblick in Gruppenzugehörigkeiten
Positiv formulierte Sätze ergaben sich meistens aus Eingaben wie "Wir sind", während negative Sätze häufig aus Eingaben wie "Sie sind" resultierten. Sätze, die die eigene Gruppe thematisierten, waren zu 93 % eher positiv formuliert. Dagegen waren Aussagen über Außengruppen zu 115 % häufiger negativ.
Diese Ergebnisse sind von großer Bedeutung. Da KI zunehmend in unseren Alltag integriert wird, könnten ihre Vorurteile soziale Spaltungen verschärfen. Dies wirft ethische Fragen über den Einsatz von KI in Bereichen wie Nachrichten, Strafverfolgung und Personalwesen auf, wo voreingenommene Ergebnisse unfair oder diskriminierend sein könnten. Die Studie betont, dass die Auswahl der richtigen Daten während des KI-Trainings Vorurteile verringern kann und unterstreicht die Notwendigkeit einer verantwortungsvollen KI-Entwicklung.
Sprachmodelle lernen aus großen Datensätzen, und wenn diese Datensätze voreingenommene Informationen enthalten, zeigen die Modelle wahrscheinlich dieselben Vorurteile. Um die Modelle zu verbessern und gerechtere Ergebnisse zu erzielen, können wir die Datensätze anpassen, um die Vorurteile zu verringern oder auszugleichen.
Die Möglichkeit, Vorurteile in KI-Systemen zu verändern, hat sowohl positive als auch negative Aspekte. Wir können gezielt daran arbeiten, Vorurteile zu verringern, aber es besteht auch die Gefahr, dass sie missbräuchlich eingesetzt werden. Beispielsweise könnte eine voreingenommene KI dazu genutzt werden, bestimmte politische Ansichten zu unterstützen. Daher ist es äußerst wichtig, Transparenz darüber zu schaffen, wie KI trainiert wird und welche Daten dabei zum Einsatz kommen.
Die Untersuchung zeigt, dass das Beheben einer Art von Voreingenommenheit dazu beitragen kann, auch andere Vorurteile zu mindern. Indem man beispielsweise die Bevorzugung von Teilnehmern aus der gleichen Gruppe in den Trainingsdaten entfernt, können auch negative Einstellungen gegenüber Personen aus anderen Gruppen abgebaut werden. Diese Verbindung bedeutet, dass KI-Forscher Daten entwickeln sollten, die verschiedene Arten von Vorurteilen gleichzeitig behandeln. Auf diese Weise können KI-Systeme entstehen, die stärker mit den menschlichen Werten von Gerechtigkeit und Gleichberechtigung im Einklang stehen.
Die Studie wird hier veröffentlicht:
http://dx.doi.org/10.1038/s43588-024-00741-1und seine offizielle Zitation - einschließlich Autoren und Zeitschrift - lautet
Tiancheng Hu, Yara Kyrychenko, Steve Rathje, Nigel Collier, Sander van der Linden, Jon Roozenbeek. Generative language models exhibit social identity biases. Nature Computational Science, 2024; DOI: 10.1038/s43588-024-00741-1

2. Februar 2025 · 00:28
Fernsehgewalt prägt Buben nachhaltig: Studie zu Langzeiteffekten auf aggressives Verhalten

30. Dezember 2024 · 03:47
Blitzschneller Laser-Neuron eröffnet neue Horizonte in KI und Hochleistungsrechnen
Diesen Artikel teilen