La IA con rasgos humanos enfrenta más críticas por errores morales, según nuevo estudio

MadridUna reciente investigación realizada por Minjoo Joo en la Universidad de Mujeres Sookmyung revela que los sistemas de inteligencia artificial (IA) que parecen más humanos son más frecuentemente culpados por errores. El estudio, publicado en PLOS ONE, destaca la preocupación de que a medida que la IA se vuelve más inteligente y humana en su comportamiento, las personas comiencen a creer que puede entender y tomar mejores decisiones. Como consecuencia, se sostiene a la IA más responsable por fallos y cuestiones éticas.
Las personas tienden a responsabilizar de manera diferente a la inteligencia artificial dependiendo de cuánto la perciban como humana. Si una IA parece más "humanoide", es más probable que la culpen por sus errores. Esto influye en la percepción que se tiene de la IA y puede trasladar la responsabilidad de los humanos, como programadores o empresas. En un estudio donde se evaluaron situaciones, como errores racistas de una IA al etiquetar fotos, se observó que las IA más parecidas a los humanos recibieron más críticas que los sistemas más simples.
Estos hallazgos subrayan la importancia de comprender cómo las personas ven la inteligencia artificial. También plantean preocupaciones éticas y prácticas. Al tratar a la IA como si fuera humana, corremos el riesgo de culpar a estos sistemas en lugar de responsabilizar a las personas y organizaciones que los desarrollan. Este problema impacta ámbitos como el derecho, la tecnología y la ética, y desafía las normas actuales para la gestión de la IA.
10 de febrero de 2025 · 10:47
La IA toma el control: impacto del automatismo en trabajos de TI en EE.UU.
A medida que la inteligencia artificial se vuelve crucial en sectores como la salud, el transporte y la justicia, resulta esencial determinar quién es responsable cuando ocurren fallos. La pregunta clave es: ¿Se puede culpar a la inteligencia artificial por los errores, o son simplemente herramientas de quienes las desarrollaron? Sin reglas claras, el público podría perder confianza en la IA, lo que dificultaría su aceptación e implementación en la vida diaria.
Desarrolladores y responsables de políticas deben crear sistemas sólidos que aseguren el uso honesto y equitativo de la inteligencia artificial. En caso de que un sistema de inteligencia artificial cometa un error, la responsabilidad debe asignarse adecuadamente y no ser desviada a otros. Esto fomentará una mayor confianza en la inteligencia artificial y promoverá su uso responsable en diversas industrias.
El estudio se publica aquí:
http://dx.doi.org/10.1371/journal.pone.0314559y su cita oficial - incluidos autores y revista - es
Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.0314559

8 de febrero de 2025 · 18:24
Gigantes tecnológicos en guerra: la batalla de la IA comienza

31 de enero de 2025 · 12:49
Crisis en USAID: congelación de ayuda y cambios inesperados de personal

28 de diciembre de 2024 · 21:20
Divisiones de la IA: cómo los modelos de aprendizaje muestran sesgos y sus riesgos éticos

27 de diciembre de 2024 · 23:35
Científicos exploran relojes de envejecimiento impulsados por IA para mejorar la salud y la longevidad
Compartir este artículo