La pregunta para muchos ya no es si la IA debería usarse en la atención médica, sino cómo la regulación puede seguir el ritmo de una tecnología que ya está dando forma a las vías de atención.
Los pacientes del Reino Unido recurren cada vez más a herramientas de inteligencia artificial generativa para comprender los síntomas, interpretar los resultados y decidir cuándo buscar atención. De hecho, una investigación reciente sugiere que una de cada cuatro personas en el Reino Unido utiliza plataformas como ChatGPT para obtener orientación sobre salud. Mientras tanto, los médicos y proveedores están experimentando con la IA para clasificar la demanda, mejorar la seguridad, reducir la carga administrativa y personalizar el tratamiento.
Por lo tanto, la regulación debe respaldar lo que viene después.
Lo que la IA ya está haciendo en la atención sanitaria es amplio pero aún no profundo
En todo el NHS y el sector sanitario privado del Reino Unido, la IA se utiliza para respaldar la evaluación clínica en las primeras etapas, la clasificación de pacientes, la planificación operativa y la optimización de la fuerza laboral. Estas herramientas ayudan a los médicos a centrar su tiempo en lo que más importa y, al mismo tiempo, hacen que la atención sea más accesible y receptiva para los pacientes.
Sin embargo, los pacientes quieren respuestas rápidas y precisas a sus preguntas de salud en el momento en que las necesitan, y al mismo tiempo quieren sentir que tienen el control de su información de salud. Podría decirse que esta es la razón por la que estamos viendo el surgimiento de herramientas como ChatGPT Health y por la que creamos Nu para brindar orientación basada en evidencia dentro de las barreras clínicas.
Sin embargo, rápidamente surgen dos preguntas. Primero: ¿cómo se puede satisfacer la demanda de los pacientes de forma segura y a escala? Segundo: las herramientas de IA clínica seguirán evolucionando; entonces, ¿cómo podemos crear una regulación de cara al futuro?
Es esencial diseñar una IA segura que dé prioridad al paciente.
Sabemos que sin un diseño clínicamente informado, las herramientas genéricas de IA corren el riesgo de difundir información errónea y aumentar la ansiedad del paciente, lo que lleva a la falta de compromiso y la desconfianza.
Por lo tanto, la oportunidad clínica no es retirar a los humanos de la atención, sino utilizar la IA para proteger la continuidad, sacar a la luz el riesgo antes y poner información procesable en manos de los médicos antes de que sea demasiado tarde.
En el caso de las herramientas orientadas al paciente, la IA en la atención sanitaria debe basarse en la escalada en lugar de en el reemplazo. Por ejemplo, Aegis Monitoring de Numan señala los riesgos y atrae a los médicos cuando es necesario, porque la IA es más eficaz cuando respalda, no sustituye, el juicio clínico.
En ambos casos, el enfoque consiste en crear una IA segura y escalable en la que los pacientes puedan confiar su información y preocupaciones de salud.
Así es también como el uso de la IA puede pasar de la innovación a la intervención temprana.
Para muchos, el valor real de la IA radica en su capacidad para detectar patrones en conjuntos de datos vastos y complejos, señalando señales de alerta temprana que los humanos pueden pasar por alto. Si se hace bien, esto permite una acción más temprana y una atención más personalizada, al tiempo que potencialmente redefine la forma en que abordamos la medicina preventiva. Pero a diferencia del software tradicional, la IA no permanecerá fija. Aprende, se adapta y evoluciona, y eso exige una forma muy diferente de diseñar y gobernar la atención.
Las capacidades generativas de la IA ya se están explorando, incluso a través del MHRA AI Airlock del Reino Unido y enfoques de validación alternativos. Estos entornos de prueba del mundo real permiten a los reguladores, proveedores e innovadores aprender juntos, generando evidencia mientras los sistemas se utilizan activamente, en lugar de depender únicamente de evaluaciones estáticas previas a la implementación.
Sin embargo, incluso con estas primeras iniciativas mostrando un claro apetito por la entrega y la innovación, sin enfoques regulatorios que reconozcan la IA como un sistema de aprendizaje continuo, el Reino Unido corre el riesgo de debilitar las capacidades que podrían desbloquear una intervención más temprana y modelos de atención más preventivos.
El desafío regulatorio en 2026 es claro.
La innovación de la IA en la atención sanitaria sigue estando actualmente limitada por una supervisión fragmentada, la falta de claridad y la incertidumbre. Sólo en Inglaterra, la responsabilidad de la IA se distribuye entre múltiples reguladores y funciones de supervisión, incluso antes de tener en cuenta intereses gubernamentales más amplios. El resultado es un sistema fragmentado sin una propiedad clara y de extremo a extremo de la atención basada en IA.
La fragmentación dificulta que los innovadores –particularmente aquellos que operan de manera responsable– comprendan cómo se ve un buen cumplimiento en la práctica. Incluso las organizaciones centradas en la seguridad pueden encontrarse enfrentando expectativas superpuestas, orientación inconsistente y rutas lentas hacia la implementación en el mundo real.
El acceso a los datos agrava este desafío. Para que los sistemas de IA realicen funciones clínicas y de seguridad básicas, requieren acceso a registros de pacientes precisos y actualizados. Hoy en día, el acceso a los datos del NHS es inconsistente, mientras que los proveedores privados generan volúmenes crecientes de información clínicamente relevante que a menudo no se puede compartir con el sistema más amplio.
Necesitamos un sistema más abierto y centrado en las personas que se centre en eliminar las barreras a la innovación.
Un enfoque estilo Open Banking para los datos de salud, donde los pacientes controlen cómo se comparte su información entre los proveedores, podría ayudar a cerrar esta brecha. El acceso a los datos basado en el consentimiento respaldaría una mejor coordinación entre los servicios del NHS, los proveedores privados y los pacientes, al tiempo que fortalecería la seguridad y la continuidad de la atención.
Este no es un argumento a favor de la IA autónoma. La atención sanitaria sigue siendo compleja, contextual y profundamente humana. Por lo tanto, la gobernanza eficaz de la IA depende de una rendición de cuentas clara, un seguimiento sólido y una supervisión humana significativa.
El panorama ideal de la IA se basa en la alineación: regulación proporcionada, entornos de prueba del mundo real y marcos de datos que reflejen cómo se brinda realmente la atención hoy en día. La responsabilidad en la asistencia sanitaria no debe ser sinónimo de inercia. Debería ser una herramienta para dar forma a la innovación de modo que proporcione beneficios tangibles para los pacientes, los médicos y el sistema de salud.
La IA tiene el potencial de hacer que la atención médica sea más proactiva, personalizada y resiliente, pero solo si la regulación evoluciona a su ritmo.
Jamie Smith Webb, director de tecnología de Numan.







