Herramienta de IA en hospitales inventa declaraciones, advierten investigadores.

MadridPreocupaciones Crecientes por Whisper en la Sanidad
Existen preocupaciones crecientes sobre Whisper, una herramienta de inteligencia artificial utilizada para transcribir el habla, a medida que se vuelve más común en el ámbito sanitario. Investigadores han descubierto que el software a veces inventa declaraciones que nunca se dijeron realmente. Este problema podría ser muy peligroso en entornos médicos donde es crucial tener transcripciones precisas.
Whisper es una herramienta de OpenAI que se utiliza en diversas plataformas, incluyendo los servicios en la nube de Oracle y Microsoft. Muchas personas lo emplean para transcribir palabras habladas a texto en lugares como hospitales y centros de llamadas. Sin embargo, a veces puede cometer errores, lo que podría ser arriesgado, como proporcionar información médica incorrecta en el ámbito de la salud.
Investigadores han descubierto que Whisper con frecuencia proporciona información inexacta. Un estudio de la Universidad de Michigan reveló que el 80% de las transcripciones revisadas contenían errores. Esto generó esfuerzos por mejorar el modelo. Además, un ingeniero de aprendizaje automático encontró errores en aproximadamente la mitad de las transcripciones que examinó, destacando un problema generalizado.
Conversaciones malinterpretadas en entornos médicos pueden llevar a diagnósticos incorrectos, tratamientos inadecuados o brindar consejos erróneos a los pacientes. Estos errores pueden poner en riesgo la seguridad del paciente y aumentar la carga de trabajo del personal médico, que depende de información precisa para ofrecer atención adecuada.

10 de febrero de 2025 · 10:47
La IA toma el control: impacto del automatismo en trabajos de TI en EE.UU.
Se destacan las principales preocupaciones:
Frecuencia alta de transcripciones incorrectas en contextos médicos, lo que puede causar graves consecuencias como diagnósticos erróneos. Uso en aplicaciones críticas como sistemas hospitalarios sin las debidas medidas de seguridad. Riesgos para grupos vulnerables, como las personas sordas o con dificultades auditivas, que dependen de transcripciones precisas.
Whisper es popular, pero presenta problemas preocupantes. En áreas cruciales, se requiere una alta precisión en el reconocimiento de voz. Los errores de Whisper indican que podría ser necesario establecer más regulaciones para asegurar que las herramientas de IA sean seguras y confiables.
Cada vez más personas solicitan a OpenAI que resuelva estos problemas. Los expertos consideran que establecer normas más estrictas para la inteligencia artificial podría mitigar estos riesgos. OpenAI está actualizando sus modelos y utilizando la retroalimentación para mejorar la precisión. No obstante, hasta que se logren grandes avances, se recomienda precaución al utilizar Whisper y herramientas de transcripción de IA similares en situaciones críticas.

8 de febrero de 2025 · 18:24
Gigantes tecnológicos en guerra: la batalla de la IA comienza

31 de enero de 2025 · 12:49
Crisis en USAID: congelación de ayuda y cambios inesperados de personal

28 de diciembre de 2024 · 21:20
Divisiones de la IA: cómo los modelos de aprendizaje muestran sesgos y sus riesgos éticos

27 de diciembre de 2024 · 23:35
Científicos exploran relojes de envejecimiento impulsados por IA para mejorar la salud y la longevidad
Compartir este artículo