El gigante tecnológico OpenIA encabezado por Sam Altman anunció la compra de la startup Torch que se enfoca en la gestión de datos de salud. La operación estuvo valuada en 100 millones de dólares y uno de los objetivos principales es fortalecer el desarrollo de la novedosa herramienta ChatGPT Health.
La noticia ha tomado por sorpresa a muchas personas porque Torch apenas fue creada hace un año. Algunas de sus funciones son reunir información médica de los usuarios de hospitales, laboratorios, dispositivos portátiles y empresas de pruebas de consumo en un solo lugar.
También lee: ChatGPT-5 tiene mejoras al brindar información sobre temas relacionados con salud: Conoce las más sorprendentes
¿Por qué OpenAI decidió comprar a Torch?
- Propósito: La tecnología de Torch permite consolidar historiales médicos fragmentados (análisis de laboratorio, datos de dispositivos portátiles) en un perfil unificado.
- Integración: Esta adquisición es una pieza clave para el desarrollo de ChatGPT Health. El objetivo es que la inteligencia artificial (IA) pueda ofrecer asesoramiento personalizado y coherente basándose en el historial clínico real del usuario, manteniendo la privacidad de los datos.
- Equipo: El equipo de Torch, que incluye a exdirectivos de empresas de salud tecnológica como Forward, se ha integrado a OpenAI para liderar estos esfuerzos de salud digital.
HealthBench, nueva herramienta de OpenAI para probar la IA en la atención médica
¿Qué es ChatGPT Health?
Durante los primeros días de este 2026 OpenIA dio a conocer el lanzamiento de ChatGPT Health. Se trata de una nueva función que conecta su chatbot de IA con los registros médicos y las aplicaciones de bienestar de los usuarios para obtener respuestas más personalizadas a las preguntas médicas.
En la actualidad los chatbots de IA ya están disponibles públicamente para hacer preguntas sobre salud. Más de 800 millones de usuarios habituales de ChatGPT envían una consulta sobre salud cada semana, según OpenAI.
También lee: ¿Cuáles son las desventajas de ChatGPT en el campo médico?
¿Qué es lo bueno y lo malo de ChatGPT Health?
Beneficios
- Unificación de datos: Puedes conectar tus registros médicos (gracias a Torch y b.well), apps como Apple Health, MyFitnessPal o dispositivos wearables. Esto permite que la IA vea el “panorama completo” de tu salud en lugar de síntomas aislados.
- Traducción del lenguaje médico: Es excelente para explicar en términos sencillos resultados de laboratorio complejos o informes de radiología que a veces son difíciles de entender para un paciente.
- Privacidad reforzada: A diferencia del chat convencional, las conversaciones en el entorno Health están encriptadas y aisladas. OpenAI ha confirmado que estos datos no se utilizan para entrenar sus modelos de lenguaje.
- Preparación para citas: Te ayuda a generar una lista de preguntas inteligentes y relevantes para tu médico basadas en tus síntomas y antecedentes, optimizando el tiempo de la consulta.
- Validación clínica: Fue desarrollado con la retroalimentación de más de 260 médicos de 60 países, quienes evaluaron miles de interacciones para asegurar respuestas más seguras.
Riesgos
- No es un médico: El mayor riesgo es la sustitución. Aunque OpenAI insiste en que es una herramienta informativa, existe el peligro de que los usuarios confíen más en la IA que en un profesional humano para diagnósticos críticos.
- Alucinaciones y precisión: Aunque ha mejorado, la IA aún puede cometer errores factuales (“alucinaciones”). En medicina, un dato incorrecto sobre una dosis o una interacción de medicamentos puede ser peligroso.
- Vacío Legal (HIPAA): En algunos países (como EE. UU.), los expertos advierten que OpenAI no es un “proveedor de salud” bajo la ley HIPAA. Esto significa que, aunque prometen privacidad, tus datos no tienen el mismo privilegio legal que los que compartes con un doctor en un hospital.
- Falta de examen físico: La IA no puede tocarte, auscultarte ni ver matices físicos (como el color de la piel o texturas) que son fundamentales para un diagnóstico preciso.
- Sesgos de datos: Si tus registros médicos están incompletos o los datos de tus wearables son imprecisos, la IA sacará conclusiones erróneas basadas en esa “basura informativa”.
