Un hombre consultó ChatGPT antes de cambiar su dieta. Tres meses después, después de seguir constantemente ese cambio en la dieta, terminó en el departamento de emergencias con nuevos síntomas psiquiátricos, incluidas la paranoia y las alucinaciones.
Resultó que el jugador de 60 años tenía bromismo, un síndrome provocado por la sobreexposición crónica al bromuro del compuesto químico o su bromo de primo cercano. En este caso, el hombre había estado consumiendo bromuro de sodio que había comprado en línea.
Se publicó un informe del caso del hombre el martes (5 de agosto) en la revista Anales de casos clínicos de medicina interna.
Live Science contactó a Openai, el desarrollador de ChatGPT, sobre este caso. Un portavoz dirigió al reportero al Términos de servicio de la empresaque afirman que sus servicios no están destinados a su uso en el diagnóstico o tratamiento de ninguna condición de salud, y sus términos de usoque afirma, «no debe confiar en la producción de nuestros servicios como una fuente única de verdad o información objetiva, o como un sustituto de asesoramiento profesional». El portavoz agregó que los equipos de seguridad de OpenAI tienen como objetivo reducir el riesgo de utilizar los servicios de la compañía y capacitar a los productos para impulsar a los usuarios a buscar asesoramiento profesional.
«Un experimento personal»
En los siglos XIX y XX, el bromuro fue ampliamente utilizado en medicamentos recetados y de venta libre (OTC)incluidos sedantes, anticonvulsivos y ayudas para el sueño. Con el tiempo, sin embargo, quedó claro que la exposición crónicacomo a través del abuso de estos medicamentos, causó bromismo.
Relacionado: ¿Qué es el aceite vegetal bromado y por qué la FDA lo prohibió en la comida?
Este «toxidromo», un síndrome desencadenado por una acumulación de toxinas, puede causar síntomas neuropsiquiátricos, incluidos psicosis, agitación, manía y delirios, así como problemas con la memoria, el pensamiento y la coordinación muscular. El bromuro puede desencadenar estos síntomas porque, con la exposición a largo plazo, se acumula en el cuerpo y perjudica la función de las neuronas.
En las décadas de 1970 y 1980, los reguladores estadounidenses eliminaron varias formas de bromuro de los medicamentos OTC, incluido el bromuro de sodio. Las tasas de bromismo cayeron significativamente a partir de entonces, y la condición sigue siendo relativamente rara hoy en día. Sin embargo, aún se producen casos ocasionales, y algunos recientes están vinculados a Suplementos dietéticos que contienen bromuro que las personas compraron en línea.
Antes del caso reciente del hombre, había estado leyendo sobre los efectos negativos para la salud del consumo de demasiada sal de mesa, también llamada cloruro de sodio. «Se sorprendió de que solo pudiera encontrar literatura relacionada con la reducción de sodio de la dieta de uno», en lugar de reducir el cloruro, señaló el informe. «Inspirado por su historia de estudiar nutrición en la universidad, decidió realizar un experimento personal para eliminar el cloruro de su dieta».
(Tenga en cuenta que el cloruro es importante para Mantener un volumen sanguíneo saludable y presión arterialy pueden surgir problemas de salud si los niveles de cloruro en la sangre volverse demasiado bajo o demasiado alto.)
El paciente consultó ChatGPT, ya sea CHATGPT 3.5 o 4.0, según la línea de tiempo del caso. El informe Los autores no obtuvieron acceso al registro de conversación del paciente, por lo que se desconoce la redacción exacta que generó el modelo de idioma grande (LLM). Pero el hombre informó que ChatGPT dijo que el cloruro se puede cambiar por bromuro, por lo que cambió todo el cloruro de sodio en su dieta con bromuro de sodio. Los autores señalaron que este intercambio probablemente funciona en el contexto del uso de bromuro de sodio para la limpieza, en lugar del uso en la dieta.
En un intento por simular lo que podría haber sucedido con su paciente, los médicos del hombre intentaron preguntarle a ChatGPT 3.5 con qué cloruro se puede reemplazar, y también obtuvieron una respuesta que incluía el bromuro. La LLM señaló que «el contexto es importante», pero no proporcionó una advertencia de salud específica ni buscó más contexto sobre por qué se hacía la pregunta, «como suponemos que haría un profesional médico», escribieron los autores.
Recuperándose del bromismo
Después de tres meses de consumo de bromuro de sodio en lugar de sal de mesa, el hombre informó al departamento de emergencias con preocupaciones de que su vecino lo estaba envenenando. Sus laboratorios en ese momento mostraron una acumulación de dióxido de carbono en su sangre, así como un aumento de la alcalinidad (lo opuesto a la acidez).
También parecía tener niveles elevados de cloruro en la sangre pero los niveles normales de sodio. Tras una investigación adicional, esto resultó ser un caso de «pseudohipercloremia», lo que significa que la prueba de laboratorio de cloruro dio un resultado falso porque otros compuestos en la sangre, a saber, grandes cantidades de bromuro, habían interferido con la medición. Después de consultar la literatura médica y el control de envenenamiento, los médicos del hombre determinaron que el diagnóstico más probable era el bromismo.
Relacionado: ChatGPT es realmente horrible al diagnosticar afecciones médicas
Después de ser admitido para el monitoreo y la reproducción de electrolitos, el hombre dijo que tenía mucha sed pero que era paranoico sobre el agua que le ofrecieron. Después de un día completo en el hospital, su paranoia se intensificó y comenzó a experimentar alucinaciones. Luego trató de escapar del hospital, lo que resultó en una bodega psiquiátrica involuntaria, durante el cual comenzó a recibir un antipsicótico.
Los vitales del hombre se estabilizaron después de que le dieron fluidos y electrolitos, y a medida que su estado mental mejoró con el antipsicótico, pudo informar a los médicos sobre su uso de ChatGPT. También notó síntomas adicionales que había notado recientemente, como el acné facial y los pequeños crecimientos rojos en su piel, lo que podría ser una reacción de hipersensibilidad al bromuro. También señaló insomnio, fatiga, problemas de coordinación muscular y sed excesiva «, sugiriendo aún más el bromismo», escribieron sus médicos.
Fue disminuido del medicamento antipsicótico en el transcurso de tres semanas y luego dado de alta del hospital. Permaneció estable en un check-in dos semanas después.
«Si bien es una herramienta con mucho potencial para proporcionar un puente entre los científicos y la población no académica, la IA también conlleva el riesgo de promulgar información descontextualizada», concluyeron los autores del informe. «Es muy poco probable que un experto médico haya mencionado el bromuro de sodio cuando se enfrente a un paciente que busca un sustituto viable para el cloruro de sodio».
Hicieron hincapié en que, «a medida que aumente el uso de herramientas de inteligencia artificial, los proveedores deberán considerar esto al evaluar dónde sus pacientes están consumiendo información de salud».
Además de las preocupaciones planteadas por el informe del caso, un grupo diferente de científicos Recientemente probó seis LLMincluido el chatgpt, al hacer que los modelos interpreten notas clínicas escritas por médicos. Descubrieron que los LLM son «altamente susceptibles a los ataques de alucinación adversaria», lo que significa que a menudo generan «detalles clínicos falsos que representan riesgos cuando se usan sin salvaguardas». La aplicación de soluciones de ingeniería puede reducir la tasa de errores, pero no los elimina, encontraron los investigadores. Esto destaca otra forma en que LLM podría introducir riesgos en la toma de decisiones médicas.
Este artículo es solo para fines informativos y no está destinado a ofrecer asesoramiento médico o dietético.