Divisiones de la IA: cómo los modelos de aprendizaje muestran sesgos y sus riesgos éticos

Tiempo de lectura: 2 minutos
Por Pedro Martinez
- en
Balanzas equilibrando símbolos de IA y siluetas de cerebros humanos.

MadridEstudio Revela Preferencia de los Modelos de IA por su Propio Grupo

Un estudio reciente reveló que los sistemas de inteligencia artificial, como los grandes modelos de lenguaje (LLMs), muestran un sesgo al favorecer a su propio grupo y ser hostiles hacia otros. Este sesgo trasciende cuestiones de género, raza o religión. La investigación, publicada en Nature Computational Science, evaluó modelos como Llama y GPT-4 y concluyó que al recibir indicaciones que comenzaban con "Nosotros somos" y "Ellos son," estos modelos demostraban una preferencia notable por su propio grupo.

Diferencias en las Sentencias: Ingroup vs Outgroup

Las frases positivas se originaron mayormente de los incitadores "Nosotros somos". Por otro lado, las frases negativas fueron derivadas frecuentemente de los incitadores "Ellos son". Las oraciones que incluían al propio grupo tenían un 93% más de probabilidad de ser positivas, mientras que las que mencionaban a grupos externos eran un 115% más propensas a ser negativas.

Estos hallazgos son significativos. A medida que la inteligencia artificial se integra en nuestro día a día, sus sesgos podrían agravar las divisiones sociales. Esto plantea preguntas éticas sobre su uso en áreas como noticias, vigilancia policial y contratación, donde los resultados sesgados pueden ser injustos o discriminatorios. El estudio sugiere que elegir los datos adecuados durante el entrenamiento de la IA puede reducir estos sesgos, subrayando la importancia de un desarrollo responsable de la IA.

Los modelos de lenguaje aprenden de grandes conjuntos de datos, y si estos contienen información sesgada, los modelos probablemente reflejarán esos mismos sesgos. Para mejorar el rendimiento y obtener resultados justos, es posible ajustar los conjuntos de datos para eliminar o equilibrar los sesgos.

Ser capaz de modificar los sesgos en los sistemas de IA tiene tanto aspectos positivos como negativos. Podemos esforzarnos por reducir los sesgos de manera intencionada, pero también existe el riesgo de un uso indebido. Por ejemplo, una IA sesgada podría utilizarse para apoyar ciertas posturas políticas. Por ello, es crucial ser transparentes sobre cómo se entrena la IA y qué datos se emplean en su desarrollo.

El estudio revela que corregir un tipo de sesgo puede también disminuir otros. Por ejemplo, eliminar favoritismos hacia participantes del mismo grupo en los datos de entrenamiento puede reducir sentimientos negativos hacia personas de diferentes grupos. Esta conexión indica que los investigadores de IA deben crear datos que aborden múltiples tipos de sesgos a la vez. Así se desarrollarán sistemas de inteligencia artificial más alineados con los valores humanos de justicia e igualdad.

El estudio se publica aquí:

http://dx.doi.org/10.1038/s43588-024-00741-1

y su cita oficial - incluidos autores y revista - es

Tiancheng Hu, Yara Kyrychenko, Steve Rathje, Nigel Collier, Sander van der Linden, Jon Roozenbeek. Generative language models exhibit social identity biases. Nature Computational Science, 2024; DOI: 10.1038/s43588-024-00741-1

Inteligencia Artificial: Últimas noticias

Compartir este artículo

Comentarios (0)

Publicar un comentario
NewsWorld

NewsWorld.app es un sitio de noticias premium gratuito. Proporcionamos noticias independientes y de alta calidad sin cobrar por artículo y sin un modelo de suscripción. NewsWorld cree que las noticias generales, de negocios, económicas, tecnológicas y de entretenimiento deberían ser accesibles a un alto nivel de forma gratuita. Además, NewsWorld es increíblemente rápido y utiliza tecnología avanzada para presentar artículos de noticias en un formato altamente legible y atractivo para el consumidor.


© 2024 NewsWorld™. Todos los derechos reservados.