La IA ya cambia la salud

IA ya supera a médicos y radiólogos, pero el dato más fuerte es otro: los doctores son más necesarios que nunca



Dirección copiada

La inteligencia artificial acelera diagnósticos y detecta enfermedades con una precisión inédita, aunque sus errores, sesgos y límites frente al trato humano refuerzan el rol de los profesionales de la salud en cada decisión clínica.

Publicado el 13 de may de 2026

Nicolás Della Vecchia

Jefe de redacción



ChatGPT Image 13 may 2026, 10_25_39 a.m.

La inteligencia artificial ya mostró una capacidad que hasta hace poco parecía lejana para la medicina. En distintos estudios recientes, modelos de IA superaron a médicos de urgencias y a radiólogos en tareas de diagnóstico, con resultados especialmente fuertes en el análisis de historias clínicas y en la detección temprana de cáncer de páncreas.

Pero el dato más relevante no está solo en la potencia de esos sistemas. La señal de fondo es otra. Cuanto más avanzan estas herramientas, más necesaria resulta la presencia de médicos capaces de interpretar, controlar y corregir sus resultados. La tecnología puede ampliar la precisión diagnóstica, pero no reemplaza el juicio clínico, la experiencia ni la relación humana con el paciente.

Un estudio publicado en Science mostró que un modelo de razonamiento basado en inteligencia artificial superó a dos médicos de urgencias con amplia experiencia. Lo hizo a partir del análisis de historias clínicas electrónicas y con información limitada, similar a la que tenían los profesionales al momento de tomar decisiones.

La inteligencia artificial ya mostró una capacidad que hasta hace poco parecía lejana para la medicina
La inteligencia artificial ya mostró una capacidad que hasta hace poco parecía lejana para la medicina.

La IA ya detecta enfermedades antes que el diagnóstico clínico

El avance también apareció en imágenes médicas. En un trabajo publicado en Gut, un modelo de IA detectó cáncer de páncreas en tomografías computadas de rutina hasta tres años antes del diagnóstico clínico. Además, superó a radiólogos experimentados por un margen de dos a tres veces en la identificación correcta de tumores pancreáticos antes de que la enfermedad fuera detectada por los métodos habituales.

El dato es especialmente relevante porque el cáncer de páncreas suele diagnosticarse tarde. Según el texto base, el 85% de los pacientes recibe el diagnóstico cuando el tumor ya se diseminó a otras partes del cuerpo, con tasas de supervivencia a cinco años inferiores al 15%. Una detección temprana podría abrir la puerta a tratamientos más agresivos en etapas donde todavía existe mayor margen de acción.

Sin embargo, la promesa tecnológica trae una advertencia. Un resultado más rápido no siempre equivale a un resultado correcto. En medicina, un falso positivo puede derivar en estudios innecesarios, biopsias, costos adicionales y ansiedad para el paciente.

En un trabajo publicado en Gut, un modelo de IA detectó cáncer de páncreas en tomografías computadas de rutina hasta tres años antes del diagnóstico clínico.
En un trabajo publicado en Gut, un modelo de IA detectó cáncer de páncreas en tomografías computadas de rutina hasta tres años antes del diagnóstico clínico.

Los errores de la IA exigen supervisión médica

La IA ya alcanza niveles de precisión notables, pero todavía comete errores. En el estudio sobre cáncer de páncreas, la especificidad del modelo fue del 81%. Eso implica que casi uno de cada cinco pacientes podría recibir un resultado positivo erróneo.

Ese punto explica por qué los médicos no pierden relevancia. Al contrario, su rol se vuelve más sensible. Los profesionales deben revisar los resultados, reconocer las limitaciones de cada herramienta y evitar que una recomendación automática derive en daño para el paciente.

La medicina no funciona como una simple lectura de datos. Un diagnóstico necesita contexto clínico, antecedentes, síntomas, evolución del cuadro y criterio profesional. La inteligencia artificial puede detectar patrones que un humano podría pasar por alto, pero también puede interpretar como riesgo una señal que, en la práctica, no representa una enfermedad.

Hospitales - Salud - Atención sanitaria
La medicina no funciona como una simple lectura de datos. Un diagnóstico necesita contexto clínico, antecedentes, síntomas, evolución del cuadro y criterio profesional.

El sesgo de los datos puede agrandar desigualdades

Otro riesgo aparece en el origen de los sistemas. Los algoritmos se entrenan con conjuntos de datos que pueden tener limitaciones. Si una base no representa de manera adecuada a distintos grupos raciales o étnicos, el modelo puede fallar más en ciertas poblaciones.

Los autores del estudio publicado en Gut señalaron que el trabajo no fue diseñado para evaluar el rendimiento en diferentes grupos raciales y étnicos. Esa aclaración importa porque las decisiones médicas basadas en IA podrían trasladar al sistema de salud los sesgos que ya existen en los datos.

En ese punto, el médico vuelve a ocupar un lugar central. Su tarea no se limita a aceptar o rechazar lo que propone un algoritmo. También debe evaluar si la evidencia disponible se ajusta al paciente que tiene delante. Cada historia clínica tiene matices que una base de datos puede no capturar.

La IA médica puede ayudar a encontrar tumores antes, ordenar información y asistir en decisiones complejas. Pero un paciente no es una tomografía, un laboratorio ni una estadística. Es una persona con miedo, familia, contexto económico, creencias y síntomas que no siempre encajan en una predicción matemática.

Por eso, el avance de la inteligencia artificial no anuncia el final del médico. Marca una nueva etapa para la profesión. Los doctores deberán convivir con herramientas más potentes, pero su valor seguirá en la capacidad de unir ciencia, criterio y trato humano. En la medicina que viene, la máquina puede ver más rápido. El médico todavía debe decidir qué significa eso para cada paciente.

Artículos relacionados