Chatbots médicos: ¿Son seguros para pedir consejos de salud? Riesgos y límites
Con la creciente popularidad de los chatbots, empresas tecnológicas como OpenAI y Anthropic han desarrollado programas especializados para responder preguntas de salud, aunque enfatizan que no reemplazan la atención profesional médica. En enero, OpenAI lanzó ChatGPT Health, un chatbot diseñado para analizar historiales médicos, aplicaciones de bienestar y datos de dispositivos wearables, manteniendo actualmente una lista de espera. Por su parte, Anthropic ofrece funciones similares a través de su chatbot Claude para ciertos usuarios.
Funciones y advertencias clave
Ambas compañías subrayan que estos modelos de lenguaje extenso no deben usarse para diagnosticar enfermedades ni sustituir consultas con profesionales. Según sus declaraciones, las herramientas pueden:
- Resumir resultados de pruebas médicas complejas
- Preparar a los pacientes para consultas médicas
- Analizar tendencias de salud importantes en historiales médicos
- Proporcionar información más personalizada que búsquedas convencionales en internet
El Dr. Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco, comentó: "La alternativa a menudo es no hacer nada, o que el paciente improvise. Por eso creo que, si se usan estas herramientas con responsabilidad, se puede obtener información útil".
Privacidad y protección de datos médicos
Uno de los aspectos más críticos es que la información compartida con estos chatbots no está protegida por la ley federal HIPAA, que regula la confidencialidad médica en hospitales, consultorios y aseguradoras. El Dr. Lloyd Minor de la Universidad de Stanford advirtió: "Cuando alguien sube su historial médico a un modelo de lenguaje extenso, es muy diferente a entregárselo a un médico nuevo. Los consumidores deben comprender que se aplican estándares de privacidad completamente diferentes".
OpenAI y Anthropic afirman que los datos de salud se mantienen separados de otra información y no se utilizan para entrenar modelos, permitiendo a los usuarios aceptar compartir datos y desconectarse cuando lo deseen.
Cuándo evitar los chatbots y buscar atención profesional
Los expertos son enfáticos en que los chatbots no deben usarse en emergencias médicas. Síntomas como:
- Dificultad para respirar
- Dolor en el pecho
- Dolor de cabeza intenso
requieren atención profesional inmediata. En situaciones menos urgentes, los usuarios deben mantener "un grado de saludable escepticismo", según el Dr. Minor, quien agregó: "Si estás hablando de una decisión médica importante, nunca deberías confiar únicamente en lo que obtienes de un modelo de lenguaje amplio".
Limitaciones y estudios preliminares
Las investigaciones sobre efectividad aún son preliminares. Un análisis de la Universidad de Oxford con 1.300 participantes mostró que quienes consultaron chatbots para condiciones hipotéticas no tomaron mejores decisiones que quienes usaron búsquedas en línea o su propio criterio. Adam Mahdi del Oxford Internet Institute explicó: "Los chatbots identificaron correctamente la condición en un 95% de escenarios escritos, pero el punto donde todo se vino abajo fue durante la interacción con participantes reales".
Entre los problemas detectados:
- Usuarios que no proporcionaban suficiente información
- Respuestas que mezclaban datos positivos y negativos
- Dificultades en la interpretación correcta
Mejores prácticas y segunda opinión digital
El Dr. Wachter señaló que la capacidad de los chatbots para hacer preguntas de seguimiento y obtener detalles clave es un área con margen de mejora: "Creo que esto mejorará realmente cuando las herramientas se vuelvan un poco más médicas en la forma de interactuar". Una estrategia recomendada es consultar distintos chatbots para comparar respuestas, similar a obtener una segunda opinión médica. "A veces introduzco información en ChatGPT y en Gemini. Y cuando ambos coinciden, me siento un poco más seguro de que es la respuesta correcta", comentó Wachter.
Los estudios continúan evaluando la efectividad real de estas herramientas, mientras los expertos insisten en que, aunque pueden ofrecer información útil, nunca deben sustituir el criterio profesional ni la atención médica directa, especialmente en casos de emergencia o decisiones de salud importantes.
