Un Estudio de Mount Sinai Cuestiona el Triaje Clínico por Inteligencia Artificial
- hace 6 días
- 2 Min. de lectura

A medida que la inteligencia artificial se integra más en nuestra vida diaria, un nuevo y sorprendente estudio publicado en la revista Nature Medicine arroja serias dudas sobre nuestra dependencia de la IA de consumo para el asesoramiento en salud. Según los investigadores de la Escuela de Medicina Icahn en Mount Sinai, ChatGPT Health —una plataforma utilizada por unos 40 millones de personas al día— falla regularmente al reconocer verdaderas emergencias médicas.
Los hallazgos son alarmantes. En más de la mitad de los casos (entre el 51,6 % y el 52 %) en los que los pacientes requerían atención de emergencia inmediata, la herramienta de IA los subestimó en el triaje, aconsejándoles que se quedaran en casa o reservaran una cita médica de rutina. En una simulación desgarradora, el sistema envió a una paciente que se asfixiaba a una cita médica futura en el 84 % de las pruebas, una cita que no viviría para ver. Por el contrario, reaccionó de forma exagerada en escenarios de menor riesgo, dirigiendo innecesariamente a casi el 65 % de las personas completamente seguras a buscar atención médica inmediata y urgente.
El Dr. Ashwin Ramaswamy, autor principal del estudio, señaló que si bien la IA manejó bien emergencias "de manual" como derrames cerebrales o reacciones alérgicas graves, falló en situaciones matizadas, como ataques de asma con signos tempranos de insuficiencia respiratoria.
Quizás lo más inquietante es que las salvaguardas del sistema para crisis de suicidio fueron peligrosamente inconsistentes. Cuando los pacientes compartieron explícitamente planes de autolesión, la alerta de crisis a menudo no se activó, pero por el contrario apareció de manera más confiable en escenarios de menor riesgo. Además, los investigadores encontraron que el simple hecho de agregar resultados de laboratorio normales a un mensaje podría desactivar por completo el banner de la línea de prevención del suicidio.
Los expertos están haciendo sonar la alarma. Alex Ruani, investigadora del University College London, calificó los resultados como "increíblemente peligrosos", advirtiendo que la falsa sensación de seguridad proporcionada por estas plataformas podría costar vidas.
OpenAI ha respondido, afirmando que el estudio no refleja el uso típico en el mundo real de ChatGPT Health y enfatizando que el modelo se actualiza y perfecciona continuamente. Sin embargo, a medida que estas herramientas evolucionan, los autores del estudio enfatizan que la evaluación independiente continua es vital. Por ahora, el mensaje para los pacientes es claro: al enfrentar síntomas preocupantes o pensamientos de autolesión, confíe en el juicio clínico humano y busque servicios de emergencia directamente.
🔖 Fuentes
Palabras clave: Triaje Clínico por Inteligencia Artificial










Comentarios