




Con la creciente popularidad de ChatbotsVarias empresas tecnológicas han desarrollado programas especiales para responder a esto Problemas de saludaunque advierten que no sustituyen la atención profesional.
LEER TAMBIÉN
En enero, OpenAI ha lanzado ChatGPT Healthun chatbot diseñado para analizar registros médicos, aplicaciones de bienestar y datos de dispositivos portátiles para responder preguntas médicas y de salud. El programa actualmente tiene lista de espera. por su parte Antropoceno ofrece características similares a través de su Chatbot Claudio para usuarios específicos.
Ambas empresas destacan que estos chatbots, los llamados modelos de lenguaje extensivo, No deben sustituir la atención profesional ni utilizarse para diagnosticar ninguna enfermedad.. Dicen que las herramientas pueden resumir resultados de pruebas complejas, preparar al paciente para las visitas al médico y analizar tendencias de salud clave en registros médicos y métricas de uso.
Los chatbots no reemplazan la atención profesional y no deben usarse para diagnosticar enfermedades. Foto:iStock
LEER TAMBIÉN
Información personalizada y limitaciones de los chatbots
Algunos médicos que han trabajado con ChatGPT Health creen que estas plataformas brindan información más personalizada que una búsqueda tradicional en Internet, aunque lo reconocen. Los sistemas no son infalibles y pueden producir errores o “alucinaciones”.
“La alternativa suele ser no hacer nada o que el paciente improvise”, afirmó el Dr. Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco. “Por eso creo que si se utilizan estas herramientas de manera responsable, se puede obtener información útil”.
Una ventaja de los chatbots más recientes es que responden teniendo en cuenta el contexto del historial médico del usuario, incluida la edad, las recetas y las notas del médico. Incluso si esta información no se comparte, se recomienda que proporcione tantos detalles como sea posible para obtener respuestas más precisas.
Pueden resumir resultados de pruebas complejas y ayudar a prepararse para las visitas al médico. Foto:iStock
LEER TAMBIÉN
¿Cuándo debería evitar la IA y consultar a un médico?
Los expertos advierten contra esto Los chatbots no deben utilizarse en emergencias médicas. Síntomas como dificultad para respirar, dolor en el pecho o dolor de cabeza intenso requieren atención profesional inmediata.
En situaciones menos urgentes, los usuarios deben mantener «un cierto nivel de escepticismo saludable», dijo el Dr. Lloyd Minor de la Universidad de Stanford. «Cuando se habla de una decisión médica importante o incluso de una decisión menor sobre su salud, nunca se debe confiar únicamente en lo que se obtiene de un modelo de lenguaje amplio», añadió Minor.
La información compartida con estos chatbots no está protegida por la ley federal HIPAA. Foto:iStock
LEER TAMBIÉN
Protección de datos y tratamiento de datos médicos.
Los chatbots requieren información personal para poder proporcionar respuestas detalladas. Sin embargo, la información compartida no está protegida por la Ley de Privacidad federal HIPAA.que rige la información médica confidencial de hospitales, médicos y aseguradoras.
«Si alguien carga su historial médico en un modelo de lenguaje largo, es muy diferente a entregárselo a un nuevo médico», dijo Minor. «Los consumidores deben comprender que se aplican normas de protección de datos completamente diferentes». OpenAI y Anthropic dicen que los datos de salud de los usuarios se mantienen separados de otros tipos de información y no se utilizan para entrenar modelos. Los usuarios pueden dar su consentimiento para compartir sus datos y desconectarse en cualquier momento.
No se recomienda utilizar chatbots para emergencias médicas. Foto:iStock
LEER TAMBIÉN
Limitaciones y evidencia de efectividad.
Los estudios sobre chatbots sanitarios aún son preliminares. Un análisis de la Universidad de Oxford de 1.300 participantes mostró que las personas que consultaban chatbots sobre enfermedades hipotéticas no tomaban mejores decisiones que aquellos que utilizaban búsquedas en línea o su propio criterio.
Los chatbots identificaron correctamente la condición subyacente en el 95% de los escenarios escritos, pero tuvieron problemas para interactuar con usuarios reales. «Ese no era el problema», dijo Adam Mahdi del Oxford Internet Institute. «El punto donde todo se vino abajo fue durante la interacción con los participantes reales».
Los problemas identificados a menudo incluían que los usuarios no proporcionaran suficiente información, y los chatbots respondieron mezclando datos positivos y negativos, lo que dificulta una correcta interpretación.
Comparar las respuestas de diferentes chatbots puede servir como una especie de segunda opinión. Foto:iStock
LEER TAMBIÉN
Segundas opiniones y mejores prácticas.
Wachter considera que la capacidad de los chatbots para hacer preguntas de seguimiento y obtener detalles importantes de los usuarios es un área de mejora. «Creo que esto realmente mejorará a medida que las herramientas se vuelvan un poco más de grado médico en la forma en que interactúan con los pacientes», dijo.
Una forma de aumentar la confianza en la información recibida es consultar varios chatbots, similar a obtener una segunda opinión médica. «A veces ingreso información en ChatGPT y Gemini», dijo Wachter. «Y si ambos están de acuerdo, me siento un poco más seguro de que es la respuesta correcta».
Agencia AP
Más noticias en EL TIEMPO
*Este contenido fue reescrito utilizando inteligencia artificial con base en información de AP y revisado por el periodista y un editor.



