Podziały AI: przeciwdziałanie stronniczości w modelach uczenia maszynowego i etyczne wyzwania

WarsawBadania opublikowane w Nature Computational Science ujawniły, że systemy AI, takie jak duże modele językowe (LLM), wykazują skłonność do faworyzowania własnej grupy i wrogości wobec innych. Ta tendencja wykracza poza kwestie takie jak płeć, rasa czy religia. Wśród testowanych modeli znalazły się Llama oraz GPT-4. Wyniki pokazały, że gdy modelom przedstawiono polecenia rozpoczynające się od "Jesteśmy" i "Oni są", wyraźnie preferowały własną grupę.
Wezwania typu "My jesteśmy" najczęściej skutkowały pozytywnymi zdaniami. Z kolei negatywne zdania zazwyczaj wynikały z frazy "Oni są". Zdania dotyczące własnej grupy były aż o 93% częściej pozytywne, natomiast te związane z grupą zewnętrzną były o 115% bardziej prawdopodobne, że będą negatywne.
Odkrycia te są istotne. W miarę jak sztuczna inteligencja staje się integralną częścią naszego życia, jej uprzedzenia mogą pogłębiać podziały społeczne. To rodzi etyczne pytania dotyczące zastosowania SI w takich dziedzinach jak media, policja czy rekrutacja, gdzie uprzedzone wyniki mogą być niesprawiedliwe lub dyskryminujące. Badanie wskazuje, że właściwy dobór danych podczas szkolenia SI może zmniejszać uprzedzenia, podkreślając znaczenie odpowiedzialnego rozwoju sztucznej inteligencji.
10 lutego 2025 · 15:47
AI przejmuje kontrolę: niszczycielski wpływ automatyzacji na amerykańskie miejsca pracy w IT
Modele językowe uczą się na podstawie dużych zbiorów danych, które mogą zawierać stronnicze informacje. Jeśli tak jest, modele mogą odzwierciedlać te same uprzedzenia. Aby modele działały lepiej i dawały uczciwe wyniki, można dostosować zbiory danych w celu usunięcia lub zrównoważenia tych uprzedzeń.
Możliwość zmiany uprzedzeń w systemach AI ma swoje plusy i minusy. Możemy celowo pracować nad redukcją uprzedzeń, ale istnieje również ryzyko ich niewłaściwego wykorzystania. Na przykład, stronnicze AI mogłoby wspierać określone poglądy polityczne. Dlatego kluczowe jest, aby być transparentnym w kwestii sposobu trenowania AI oraz danych, które są używane.
Badanie wykazuje, że eliminowanie jednego rodzaju uprzedzeń może również zmniejszyć inne. Na przykład usunięcie faworyzowania uczestników z tej samej grupy w danych szkoleniowych może także obniżyć negatywne emocje wobec osób z różnych grup. To powiązanie sugeruje, że badacze AI powinni tworzyć dane, które jednocześnie uwzględniają różne typy uprzedzeń. Dzięki temu możliwe będzie tworzenie systemów AI, które bardziej odpowiadają ludzkim wartościom, takim jak sprawiedliwość i równość.
Badanie jest publikowane tutaj:
http://dx.doi.org/10.1038/s43588-024-00741-1i jego oficjalne cytowanie - w tym autorzy i czasopismo - to
Tiancheng Hu, Yara Kyrychenko, Steve Rathje, Nigel Collier, Sander van der Linden, Jon Roozenbeek. Generative language models exhibit social identity biases. Nature Computational Science, 2024; DOI: 10.1038/s43588-024-00741-1

8 lutego 2025 · 23:24
Giganci technologiczni w walce: wojna AI dopiero się zaczyna

31 stycznia 2025 · 17:49
Zamieszanie w USAID: zamrożenie funduszy i zmiany kadrowe wstrząsają organizacją
Udostępnij ten artykuł
