


Un irlandés de 37 años decidió visitar ChatGPT por un dolor de garganta persistente. El sistema respondió: «Es muy poco probable que tengas cáncer». meses después, Un médico le diagnosticó cáncer de esófago avanzado.
el caso de Warren TierneyPsicólogo y padre, viajó internacionalmente y se convirtió en un ejemplo de los riesgos de utilizar la inteligencia artificial (IA) sin supervisión médica.
LEER TAMBIÉN
Tierney había utilizado la herramienta para descartar enfermedades, pero cuando los síntomas empeoraron, recurrió a ella varias veces.
Cuando finalmente fue al hospital, Le diagnosticaron un adenocarcinoma avanzado con pocas posibilidades de supervivencia. Desde su habitación admitió que los retrasos por la confianza en el chatbot «probablemente le costaron unos meses de su vida».
El caso destaca los riesgos de utilizar la IA en la atención sanitaria sin supervisión médica profesional. Foto:iStock
LEER TAMBIÉN
Riesgos del exceso de confianza
El uso de modelos de lenguaje como ChatGPT ha aumentado rápidamente, aunque estos sistemas no fueron diseñados para reemplazar el criterio médico. Según Hernán Seoane, consultor en innovación estratégica en salud e inteligencia artificial, «la dependencia excesiva es el mayor riesgo. Estas herramientas pueden parecer muy seguras, incluso si están equivocadas. Pueden alucinar datos, carecer de contexto clínico o ignorar sus antecedentes. Su objetivo es proporcionar información y orientación, pero no sustituyen el consejo médico».
Seoane también alerta sobre la protección de datos y los límites de datos geográficos. «No todos los chats son un entorno adecuado para compartir información confidencial», afirma, y explica que los modelos suelen entrenarse con información de diferentes entornos. “Lo que funciona en un hospital de Estados Unidos puede no funcionar igual en Salta o el conurbano”.
Desde una perspectiva técnica, se distingue entre sistemas generales y modelos especializados.. «Un modelo general es un gran conversador, está entrenado con Internet y libros, pero no está diseñado para tomar decisiones clínicas. En cambio, una IA médica recibe datos seleccionados, utiliza estándares de diagnóstico y pasa por evaluaciones regulatorias. Además, tiene trazabilidad: sabes con qué datos fue entrenado y cómo se actualiza».
Los expertos advierten que la IA no sustituye al criterio médico a la hora de realizar diagnósticos. Foto:iStock
LEER TAMBIÉN
Copiloto, sin reemplazo
Respecto a la implicación de la IA en el diagnóstico, Seoane apunta: «Sí, pero como apoyo y en tareas claramente definidas. Puede priorizar imágenes sospechosas para que el radiólogo las vea primero, o resumir historias clínicas, o ayudar en el triaje telefónico. Donde hay evidencia y seguimiento se acortan tiempos y se reducen errores. Lo que no está preparado es un ‘médico automático’ que diagnostique solo, sin contexto ni responsabilidad clínica».
El especialista sugiere una integración con “las personas en el centro, la IA como copiloto”. En este esquema, El asistente digital trabaja con la gestión de turnos, resúmenes clínicos o alertas de medicación, siempre bajo control profesional. «La clave es la seguridad, la auditoría y la transparencia: quién utilizó la IA, qué recomendaron y con qué evidencia».
El caso destaca los riesgos de utilizar la IA en la atención sanitaria sin supervisión médica profesional. Foto:iStock
LEER TAMBIÉN
Un marco regulatorio pendiente
Para evitar tragedias como la de Tierney, Seoane propone tres niveles de regulación: Validación clínica proporcional al riesgo, gestión de datos y transparencia.. “Cuanto mayor sea el impacto en la salud, más rigurosas deben ser las pruebas antes y después de su uso”, afirma. También enfatiza la necesidad de modelos representativos y responsables: “No queremos modelos que sólo funcionen bien para un grupo”.
El asesor recuerda que algunos sistemas médicos de IA ya se consideran dispositivos médicos y están sujetos a estándares internacionales. «Existen reglas para diseñar, probar, actualizar y monitorear estas herramientas, al igual que un electrocardiógrafo, excepto que aquí el dispositivo es un algoritmo».
Seoane resume su visión con una frase que define el rumbo que debe tomar la salud digital: “La innovación responsable no se detiene, avanza con evidencia, reglas claras y con el profesional como garante de la decisión final”.
La Nación (Argentina) / GDA
Más noticias en EL TIEMPO
*Este contenido fue reescrito mediante inteligencia artificial con base en información de La Nación y verificada por un periodista y un editor.



