Estudio de Oxford alerta sobre peligros de usar ChatGPT para consultas médicas
Una investigación de la Universidad de Oxford, publicada en la prestigiosa revista Nature Medicine, ha generado alerta en la comunidad médica internacional al demostrar que los modelos de lenguaje como ChatGPT presentan riesgos significativos cuando se utilizan para evaluar síntomas de salud. El estudio concluye que estas herramientas de inteligencia artificial no pueden reemplazar la evaluación profesional y pueden fallar en detectar casos que requieren atención urgente.
Metodología rigurosa con participación de médicos
La investigación, dirigida por el Oxford Internet Institute y el Departamento Nuffield de Ciencias de la Salud de Atención Primaria, en colaboración con MLCommons y otras instituciones, incluyó un ensayo aleatorio en línea con casi 1.300 médicos participantes. A cada profesional se le presentaron diversos escenarios clínicos realistas, incluyendo casos como un joven con fuerte dolor de cabeza tras una salida nocturna o una madre primeriza con sensación persistente de falta de aire y agotamiento.
Los investigadores dividieron a los participantes en dos grupos: uno que utilizó herramientas de inteligencia artificial para decidir cómo actuar ante los síntomas descritos, y otro que recurrió a métodos tradicionales como búsquedas en línea o su propio criterio profesional. Posteriormente, compararon la capacidad de ambos grupos para identificar correctamente los problemas de salud y seleccionar las medidas de acción apropiadas.
Resultados preocupantes: la IA no supera métodos convencionales
Los hallazgos del estudio son contundentes: "Quienes utilizaban modelos de lenguaje extenso no tomaban mejores decisiones que los participantes que recurrían a métodos tradicionales", explicaron desde la Universidad de Oxford. Esta conclusión contrasta marcadamente con los buenos resultados que estos mismos sistemas obtienen en pruebas estandarizadas de conocimiento médico, revelando una brecha significativa entre el rendimiento teórico y la aplicación práctica.
Entre los riesgos específicos identificados se encuentran:
- Posibilidad de diagnósticos incorrectos que podrían agravar condiciones médicas
- Falta de reconocimiento de casos que requieren atención urgente
- Dificultades en la comunicación usuario-sistema, donde los pacientes no saben qué información proporcionar
- Generación de recomendaciones mixtas que combinan indicaciones adecuadas con otras inadecuadas
Advertencias de expertos y llamados a la precaución
La Dra. Rebecca Payne, médica de cabecera y investigadora principal del estudio, fue categórica: "A pesar de todo el revuelo, la IA aún no está lista para asumir el rol del médico. Los pacientes deben ser conscientes de que preguntar a un modelo de lenguaje extenso sobre sus síntomas puede ser peligroso".
Andrew Bean, estudiante de doctorado en el Oxford Internet Institute y autor principal, destacó que "interactuar con humanos supone un desafío incluso para los modelos de lenguaje más destacados". Mientras que el profesor asociado Adam Mahdi, también autor principal, enfatizó la necesidad de pruebas rigurosas antes de adoptar estas tecnologías en entornos médicos: "No podemos basarnos únicamente en pruebas estandarizadas para determinar si estos sistemas son seguros para el uso público".
Recomendaciones para el futuro de la IA en salud
La investigación propone que los sistemas de inteligencia artificial sean sometidos a pruebas en entornos reales antes de su adopción generalizada, similar a los ensayos clínicos aplicados a nuevos medicamentos. Los autores subrayan que los mecanismos actuales de evaluación no reproducen la complejidad de la interacción con personas en situaciones reales, especialmente en contextos de alto riesgo como la atención médica.
Este estudio representa una llamada de atención importante en un momento de creciente entusiasmo por la aplicación de inteligencia artificial en salud, recordando que la tecnología debe complementar, no reemplazar, el juicio clínico profesional y la relación médico-paciente.



