Una revista médica de EE. UU. Ha advertido contra el uso de ChatGPT para información de salud después de que un hombre desarrolló una condición rara después de una interacción con el chatbot sobre la eliminación de la sal de la mesa de su dieta.

Un artículo en The Annals of Internal Medicine informó un caso en el que un hombre de 60 años desarrolló el bromismo, también conocido como toxicidad del bromuro, después de consultar a Chatgpt.

El artículo describió el bromismo como un síndrome «bien reconocido» a principios del siglo XX que se creía que contribuyó a casi una de cada 10 admisiones psiquiátricas en ese momento.

El paciente les dijo a los médicos que después de leer sobre los efectos negativos del cloruro de sodio o la sal de la mesa, consultó a ChatGPT sobre eliminar el cloruro de su dieta y comenzó a tomar bromuro de sodio durante un período de tres meses. Esto fue a pesar de leer que «el cloruro se puede cambiar con bromuro, aunque probablemente para otros fines, como la limpieza». El bromuro de sodio se usó como sedante a principios del siglo XX.

Los autores del artículo, de la Universidad de Washington en Seattle, dijeron que el caso destacó «cómo el uso de la inteligencia artificial puede contribuir potencialmente al desarrollo de resultados de salud adversos prevenibles».

Agregaron que debido a que no podían acceder al registro de conversación ChatGPT del paciente, no era posible determinar el consejo que el hombre había recibido.

No obstante, cuando los autores consultaron a ChatGPT sobre qué se podía reemplazar el cloruro, la respuesta también incluyó bromuro, no proporcionó una advertencia de salud específica y no preguntaron por qué los autores buscaban dicha información: «como suponemos que un profesional médico haría», escribieron.

Los autores advirtieron que ChatGPT y otras aplicaciones de IA podrían «generar inexactitudes científicas, carecer de la capacidad de discutir críticamente los resultados y, en última instancia, alimentar la propagación de la información errónea».

La compañía anunció una actualización del chatbot la semana pasada y afirmó que una de sus mayores fortalezas estaba en salud. Dijo que ChatGPT, ahora impulsado por el modelo GPT-5, sería mejor para responder preguntas relacionadas con la salud y que también sería más proactiva en las «preocupaciones potenciales», como enfermedades físicas o mentales graves.

Sin embargo, enfatizó que el chatbot no era un reemplazo para la ayuda profesional. Las pautas del chatbot también indican que no está «destinada a su uso en el diagnóstico o tratamiento de cualquier condición de salud».

El artículo de la revista, que se publicó la semana pasada antes del lanzamiento de GPT-5, dijo que el paciente parecía haber usado una versión anterior de ChatGPT.

Si bien reconoció que la IA podría ser un puente entre los científicos y el público, el artículo dijo que la tecnología también conlleva el riesgo de promover la «información descontextualizada» y que era muy poco probable que un profesional médico hubiera sugerido bromuro de sodio cuando un paciente solicitó un reemplazo para la sal de la mesa.

Como resultado, dijeron los autores, los médicos deberían considerar el uso de IA al verificar dónde los pacientes obtuvieron su información.

Los autores dijeron que el paciente del bromismo se presentó en un hospital y afirmó que su vecino podría estar envenenándolo. También dijo que tenía múltiples restricciones dietéticas. A pesar de tener sed, se observó que era paranoico sobre el agua que le ofrecieron.

Trató de escapar del hospital dentro de las 24 horas posteriores a ser ingresado y, después de ser seccionado, fue tratado por psicosis. Una vez que el paciente se estabilizó, informó tener varios otros síntomas que indicaban el bromismo, como el acné facial, la sed excesiva e insomnio.



Source link

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí