Nowe badania: AI o cechach ludzkich częściej obwiniane za błędy moralne

WarsawNajnowsze badania Minjoo Joo z Uniwersytetu Sookmyung sugerują, że systemy sztucznej inteligencji, które wydają się bardziej ludzkie, częściej są obarczane winą za pomyłki. Publikacja w PLOS ONE podkreśla problem, że im bardziej inteligentne i podobne do ludzi stają się AI, tym bardziej ludzie wierzą, że rozumieją one i podejmują lepsze decyzje. W rezultacie, AI ponoszą większą odpowiedzialność za błędy i kwestie etyczne.
AI jest oceniane przez ludzi w różny sposób w zależności od tego, jak bardzo przypomina człowieka. Gdy sztuczna inteligencja wydaje się bardziej ludzka, częściej bywa obwiniana za popełniane błędy. To wpływa na postrzeganie AI i może zmieniać przypisywanie odpowiedzialności z ludzi, takich jak programiści czy firmy, na same systemy AI. Badanie pokazało, że w sytuacjach, gdy AI popełniała błędy rasistowskie podczas oznaczania zdjęć, bardziej "ludzkie" systemy były obwiniane częściej niż te prostsze.
Te odkrycia podkreślają wagę zrozumienia postrzegania AI przez ludzi. Zwracają one również uwagę na etyczne i praktyczne problemy. Gdy zaczynamy traktować AI jak ludzi, ryzykujemy przeniesienie winy na te systemy, zamiast pociągać do odpowiedzialności osoby i organizacje, które je tworzą. Kwestia ta wpływa na dziedziny takie jak prawo, technologia i etyka, kwestionując obecne zasady zarządzania AI.
10 lutego 2025 · 15:47
AI przejmuje kontrolę: niszczycielski wpływ automatyzacji na amerykańskie miejsca pracy w IT
W miarę jak sztuczna inteligencja staje się kluczowa w takich dziedzinach jak opieka zdrowotna, transport i system sprawiedliwości, istotne jest ustalenie, kto ponosi odpowiedzialność, gdy dojdzie do błędu. Kluczowe pytanie brzmi: Czy można obciążać AI winą za pomyłki, czy są one jedynie narzędziami stworzonymi przez ludzi? Bez jasno określonych zasad ludzie mogą stracić zaufanie do AI, co utrudni akceptację i wdrożenie tych technologii w codziennym życiu.
Programiści i decydenci powinni stworzyć solidne systemy, które zapewnią uczciwe i transparentne wykorzystanie AI. W przypadku błędu systemu AI, odpowiedzialność powinna być jasno wyznaczona i nie przenoszona na innych. To zwiększy zaufanie do AI i zachęci do jego odpowiedzialnego stosowania w różnych branżach.
Badanie jest publikowane tutaj:
http://dx.doi.org/10.1371/journal.pone.0314559i jego oficjalne cytowanie - w tym autorzy i czasopismo - to
Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.0314559

8 lutego 2025 · 23:24
Giganci technologiczni w walce: wojna AI dopiero się zaczyna

31 stycznia 2025 · 17:49
Zamieszanie w USAID: zamrożenie funduszy i zmiany kadrowe wstrząsają organizacją
Udostępnij ten artykuł

