Las recientes generaciones de IA han demostrado ser útiles para las recomendaciones de los restaurantes y la escritura de correos electrónicos, pero como fuente de consejos médicos han tenido algunos inconvenientes claros.
Caso en cuestión: un hombre que siguió el plan de salud de un chatbot terminó en el hospital después de darse una forma rara de toxicidad.
La historia comenzó cuando el paciente decidió mejorar su salud al reducir su consumo de sal o cloruro de sodio. Para encontrar un sustituto, hizo lo que muchas otras personas hacen hoy en día: le preguntó a ChatGPT.
RELACIONADO: Los ‘fantasmas’ de IA podrían ser una amenaza grave para la salud mental, advierte el experto
El chatbot de Openai aparentemente sugirió el bromuro de sodio, que el hombre ordenó en línea e incorporó a su dieta.
Si bien es cierto que el bromuro de sodio puede ser un sustituto del cloruro de sodio, generalmente es si está tratando de limpiar una bañera de hidromasaje, no para que sus papas fritas sean más sabrosas. Pero la IA descuidó mencionar este contexto crucial.
Tres meses después, el paciente presentó al departamento de emergencias con delirios paranoicos, creyendo que su vecino estaba tratando de envenenarlo.
«En las primeras 24 horas de admisión, expresó una creciente paranoia y alucinaciones auditivas y visuales, que, después de intentar escapar, resultó en un control psiquiátrico involuntario por la discapacidad de tumbas», escriben los médicos.
Después de que fue tratado con medicamentos contra la psicosis, el hombre se calmó lo suficiente como para explicar su régimen dietético inspirado en la AI. Esta información, junto con los resultados de su prueba, permitió al personal médico diagnosticarlo con bromismo, una acumulación tóxica de bromuro.
Los niveles de bromuro son típicamente inferiores a alrededor de 10 mg/L en la mayoría de las personas sanas; Los niveles de este paciente se midieron a 1.700 mg/L.
El bromismo fue una condición relativamente común a principios del siglo XX, y se estima que alguna vez fue responsable de hasta el 8 por ciento de las admisiones psiquiátricas. Pero los casos de la condición cayeron drásticamente en los años setenta y ochenta, después de que los medicamentos que contenían bromuros comenzaron a eliminarse.
Después del diagnóstico, el paciente fue tratado en el transcurso de tres semanas y liberado sin problemas importantes.
La principal preocupación en este estudio de caso no es tanto el retorno de una enfermedad anticuada: es que la tecnología emergente de IA aún no se queda corto en reemplazar la experiencia humana cuando se trata de cosas que realmente importan.
«Es importante tener en cuenta que ChatGPT y otros sistemas de IA pueden generar inexactitudes científicas, carecen de la capacidad de discutir críticamente los resultados y, en última instancia, alimentar la propagación de la información errónea», escriben los autores.
«Es muy poco probable que un experto médico haya mencionado el bromuro de sodio cuando se enfrente a un paciente que busca un sustituto viable para el cloruro de sodio».
La investigación fue publicada en la revista Anales de la medicina interna: casos clínicos.







