La inteligencia artificial ha arrasado en la industria de los dispositivos médicos, añadiendo incluso una capa de complejidad al quirófano que provoca lesiones en los pacientes, afirman algunos profesionales de la salud.

Como Reuters Según informa, el sistema de navegación TruDi del fabricante de dispositivos Acclarent fue diseñado para tratar la sinusitis crónica, inflamación de los senos nasales, mediante la inserción de un pequeño globo para agrandar las aberturas de la cavidad sinusal.

Pero desde que la compañía añadió IA al dispositivo, la Administración de Alimentos y Medicamentos de EE. UU. ha recibido al menos 100 informes no confirmados de mal funcionamiento y eventos adversos, incluidos al menos diez casos de pacientes heridos.

Si bien aún no está claro qué papel jugó la IA en estos casos, las lesiones resultantes pueden ser graves, desde la base perforada del cráneo de un paciente hasta el líquido cefalorraquídeo que se escapa de la nariz de otro, según los informes.

Desde entonces, dos víctimas que dicen haber sufrido accidentes cerebrovasculares después de sus sinuplastias relacionadas con el sistema de navegación TruDi han demandado al fabricante del dispositivo, Acclarent, que desde entonces ha sido adquirido por Integra LifeSciences. La demandante en uno de los casos, Erin Ralph, acusó a la empresa de hacer que el dispositivo engañara al cirujano Marc Dean durante un procedimiento de 2022, lo que le provocó una lesión en la arteria carótida, lo que provocó un coágulo de sangre y, finalmente, un derrame cerebral.

La IA se utiliza en el sistema de navegación TruDi para confirmar la posición de los dispositivos dentro de la cabeza del paciente.

«Podría decirse que el producto era más seguro antes de integrar cambios en el software para incorporar inteligencia artificial que después de que se implementaron las modificaciones del software», alega una de estas demandas. según lo citado por Reuters.

La segunda demanda fue presentada por Donna Fernihough, cuya arteria carótida supuestamente “explotó”, lo que provocó que la sangre saliera “por todas partes”, lo que le provocó un derrame cerebral el mismo día.

Acclarent “sabía o debería haber sabido que la supuesta inteligencia artificial causaba o exacerbaba la tendencia del producto del sistema de navegación integrado a ser inconsistente, inexacto y poco confiable”, alega el caso de Fernihough.

La demanda también acusó a Acclarent de reducir «sus estándares de seguridad para acelerar la comercialización de la nueva tecnología» y de establecer «como objetivo sólo un 80 por ciento de precisión para parte de esta nueva tecnología antes de integrarla en el sistema de navegación TruDi».

Integra LifeSciences retrocedió, diciendo Reuters que «no hay pruebas creíbles que muestren ninguna conexión causal entre el sistema de navegación TruDi, la tecnología de inteligencia artificial y las supuestas lesiones». Acclarent negó las acusaciones en ambas demandas, que aún están en curso.

No obstante, estos casos ilustran cómo la IA está superando rápidamente el quirófano, una tendencia que comenzó mucho antes de la llegada de los grandes modelos de lenguaje (LLM) como los que impulsan ChatGPT. Por ejemplo, durante décadas se han utilizado algoritmos de aprendizaje automático para detectar enfermedades como el cáncer en exploraciones médicas.

Ya hemos visto informes de instrumentos médicos impulsados ​​por IA que han sido víctimas de las conocidas deficiencias de la tecnología. Por ejemplo, un estudio reciente encontró que dos tercios de más de 12.000 pacientes identificados con insuficiencia cardíaca mediante un estetoscopio mejorado con IA en realidad no tenían insuficiencia cardíaca.

También hemos visto chatbots basados ​​en LLM diseñados para brindar consejos médicos a pacientes del mundo real que experimentan alucinaciones generalizadas. Los expertos también advierten que los médicos están perdiendo la capacidad de identificar el cáncer en las exploraciones debido a la dependencia de detectores impulsados ​​por IA.

Si existe una supervisión regulatoria para garantizar que los pacientes no resulten heridos por los dispositivos médicos de IA sigue siendo un tema de acalorado debate. Los dispositivos que utilizan IA ni siquiera tienen que usarse en ensayos clínicos antes de ser aprobados por la FDA. En cambio, muchos fabricantes de dispositivos señalan dispositivos previamente autorizados antes de agregarles IA, según Reuters.

Peor aún, los enormes recortes de la administración Trump al presupuesto de la FDA han llevado a que docenas de científicos de IA sean despedidos o alentados a irse, lo que añade mucha presión a los que se quedan.

«Si no tienes los recursos, es más probable que te pierdas cosas», dijo un ex crítico de dispositivos Reuters.

Mientras tanto, la FDA ha redoblado su apuesta por la tecnología, subcontratando tareas de supervisión a LLM para “impulsar la innovación” y acelerar la aprobación de medicamentos.

Más recientemente, el administrador de los Centros de Servicios de Medicare y Medicaid, Mehmet «Doctor Oz» Oz, se regodeó con los «robots» que pueden hacer cualquier cosa, desde realizar ultrasonidos en mujeres embarazadas y «varitas» que pueden determinar «si el niño está bien o no».

«Y, francamente, no tengo que ver la imagen», dijo. «Sólo tengo que saber si la imagen es lo suficientemente buena como para decirme que el niño no tiene ningún problema».

Más sobre IA médica: Se detectan descripciones generales de inteligencia artificial de Google que dan consejos peligrosos sobre «salud»



Source link