IA com traços humanos recebe mais culpa por erros morais, diz novo estudo

São PauloSistemas de Inteligência Artificial Mais Humanizados Enfrentam Mais Críticas
Pesquisas recentes de Minjoo Joo, da Universidade Feminina Sookmyung, indicam que sistemas de inteligência artificial (IA) que se assemelham mais a humanos são frequentemente mais culpados por erros. O estudo, publicado na PLOS ONE, destaca uma preocupação de que, à medida que a IA se torna mais inteligente e adota comportamentos mais humanos, as pessoas passam a acreditar que ela possui melhor capacidade de compreensão e tomada de decisões. Assim, a IA acaba sendo considerada mais responsável por falhas e questões éticas.
As pessoas atribuem a culpa ao IA de formas diferentes, dependendo do quanto acham que ele se parece com um humano. Quando uma IA parece mais "humana", é mais provável que as pessoas a responsabilizem por erros. Isso influencia a percepção que se tem da inteligência artificial e pode transferir a responsabilidade de humanos, como programadores ou empresas, para a IA. Em um estudo que testou situações em que a IA comete erros racistas na marcação de fotos, constatou-se que a IA mais humanizada recebia mais culpa do que sistemas mais simples.
- A percepção das capacidades e da mente da IA
- A essência da transgressão moral
- O grau de envolvimento dos participantes humanos
8 de fevereiro de 2025 · 18:24
Gigantes da tecnologia em guerra: a batalha da IA começou
Os resultados ressaltam a importância de compreender como as pessoas enxergam a inteligência artificial. Além disso, levantam preocupações éticas e práticas. Ao começarmos a tratar a IA como seres humanos, corremos o risco de culpar essas máquinas em vez de responsabilizar as pessoas e organizações que as desenvolvem. Essa questão impacta áreas como direito, tecnologia e ética, desafiando as normas atuais de gerenciamento de inteligência artificial.
Conforme a inteligência artificial se torna relevante em setores como saúde, transporte e justiça, é crucial determinar quem é responsável quando ocorrem erros. A questão principal é: a IA pode ser culpada por equívocos, ou são meramente ferramentas nas mãos de seus criadores? Sem regulamentações claras, a confiança do público em IA pode ser abalada, dificultando a aceitação e integração dessas tecnologias na vida cotidiana.
Desenvolvedores e formuladores de políticas devem criar sistemas robustos para garantir que a IA seja utilizada de forma ética e justa. Caso um sistema de IA cometa um erro, a responsabilidade deve ser atribuída corretamente, sem transferir a culpa para outros. Isso aumentará a confiança das pessoas na IA e incentivará seu uso responsável em diversas indústrias.
O estudo é publicado aqui:
http://dx.doi.org/10.1371/journal.pone.0314559e sua citação oficial - incluindo autores e revista - é
Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.0314559

31 de janeiro de 2025 · 12:49
Turbulência na USAID: congelamento de ajuda e mudanças súbitas

28 de dezembro de 2024 · 21:20
Divisões na IA: como preconceitos em LLMs podem agravar tensões sociais e éticas

27 de dezembro de 2024 · 03:36
Hipóteses de pesquisa sob demanda: colabore com IA no avanço científico inovador

26 de dezembro de 2024 · 01:23
IA projeta aumento acelerado da temperatura global, atingindo até 3°C até 2060
Compartilhar este artigo