Enfrentar un examen como el ENARM 2026 suele causar nerviosismo y estrés en la comunidad médica. Más allá de la complejidad de la prueba, una de las mayores dificultades es que hay muchos aspirantes pero pocas plazas disponibles. Por lo mismo, cada año hay miles de doctores rechazados.
Debido a lo anterior, es necesaria una extensa preparación para repasar todo lo visto durante la universidad y el internado. Por eso ahora, con el avance de la tecnología, existen dudas con respecto a los resultados que podría obtener la inteligencia artificial (IA) en caso de participar en la prueba.
También lee: ¿Dónde está el hospital subterráneo más grande del mundo y cuáles son sus características? (VIDEO)
¿ChatGPT podría aprobar el ENARM 2026?
Aunque parece una pregunta complicada en realidad la respuesta es simple y se trata de un sí contundente. No se trata de una afirmación sin bases, sino que algunos estudios y experimentos recientes que se han realizado parecen demostrar que las máquinas pueden ser mejores que los humanos en este tipo de pruebas.
De acuerdo con estudios recientes de 2025 y 2026, modelos avanzados como GPT-5 (de OpenAI) y Gemini 1.5 Pro/Ultra (de Google) no sólo podrían aprobar el ENARM, sino que sus puntajes ya superan con creces el promedio de los médicos humanos que presentan la prueba.
Evidencia con exámenes reales
Estudios publicados a inicios de 2026 evaluaron específicamente el desempeño de este tipo de opciones con IA con reactivos del ENARM y se obtuvo lo siguiente.
- Puntajes sobresalientes: En pruebas controladas utilizando bancos de preguntas como Exarmed y Proedumed, el modelo GPT-5 alcanzó un 87% de aciertos generales.
- Comparativa humana: Mientras que un aspirante promedio en México suele obtener puntajes que rondan los 60-70 puntos (dependiendo de la especialidad), las IA alcanzan niveles superiores.
- Dominio por áreas: Se ha observado que las IA logran un 100% de efectividad en áreas como Ginecología, Geriatría y Anestesiología, aunque su desempeño baja ligeramente en Ortopedia (cercano al 69%).
Razonamiento clínico vs memorización
El ENARM no sólo pregunta datos aislados porque gran parte del examen consiste en casos clínicos complejos.
- Comprensión de contexto: Modelos como Gemini han mejorado su capacidad para conectar síntomas, antecedentes y estudios de laboratorio para llegar a un diagnóstico diferencial, una habilidad que antes se creía exclusiva de los humanos.
- Guías de Práctica Clínica (GPC): El examen se basa estrictamente en las GPC mexicanas. Las versiones actuales de estas IA han sido entrenadas con grandes volúmenes de documentos oficiales de la Secretaría de Salud (SSA) y el IMSS, lo que les permite responder “según la norma mexicana” y no sólo con literatura internacional.
También lee: Psicología del color en un consultorio médico: recomendaciones para cada especialidad
Las limitaciones de la IA
A pesar de todo lo anterior, no significa que la IA sea perfecta y pueda superar por completo el trabajo de los médicos humanos. También existen aspectos negativos que pueden ocurrir al momento de presentar el ENARM 2026 o en cualquier otro contexto.
- Alucinaciones: En ocasiones la IA inventa una correlación lógica que suena muy profesional pero es médicamente incorrecta.
- Sesgos de entrenamiento: Si una GPC mexicana se actualizó recientemente (por ejemplo, en 2025) y el modelo no ha sido reentrenado, la IA responderá con la norma antigua.
- Falta de intuición: La IA no “siente” la gravedad de un paciente; calcula probabilidades estadísticas de qué palabra sigue después de otra.
Por todo lo anterior se puede concluir que ChatGPT o cualquier otro modelo similar podría aprobar con cierta facilidad el ENARM 2026. Pero el punto más importante es que un examen de opción múltiple es una métrica de conocimiento teórico pero no necesariamente de competencia clínica en la vida real.
