La acción legal llega un año después de una queja similar, en la que una madre de Florida demandó al personaje de la plataforma Chatbot.
El personaje .i le dijo a NBC News en ese momento que estaba «desconsolado por la trágica pérdida» y había implementado nuevas medidas de seguridad. En mayo, la jueza de distrito senior de los Estados Unidos, Anne Conway, rechazó los argumentos de que los chatbots de IA tienen derechos de libertad de expresión después de los desarrolladores detrás del carácter. AI buscó desestimar la demanda. El fallo significa que la demanda por muerte injusta puede proceder por ahora.
Las plataformas tecnológicas se han protegido en gran medida de tales trajes debido a un estatuto federal conocido como Sección 230, que generalmente protege las plataformas de la responsabilidad por lo que los usuarios hacen y dicen. Pero la aplicación de la Sección 230 a las plataformas de inteligencia artificial sigue siendo incierta, y recientemente, los abogados han avanzado con tácticas legales creativas en casos de consumo dirigidos a empresas tecnológicas.
Matt Raine dijo que gritó sobre las conversaciones de Adam con ChatGPT durante un período de 10 días. Él y María imprimieron más de 3,000 páginas de chats que datan del 1 de septiembre hasta su muerte el 11 de abril.
«No necesitaba una sesión de asesoramiento o charla. Necesitaba una intervención completa inmediata de 72 horas. Estaba en forma desesperada y desesperada. Está claro cuando comienzas a leerla de inmediato», dijo Matt Raine, luego agregó que Adam «no nos escribió una nota suicida. Escribió dos notas suicidas a nosotros, dentro del chatgpt».
Según la demanda, como Adam expresó interés en su propia muerte y comenzó a hacer planes, ChatGPT «no pudo priorizar la prevención del suicidio» e incluso ofreció consejos técnicos sobre cómo avanzar con su plan.
El 27 de marzo, cuando Adam compartió que estaba contemplando dejar una soga en su habitación «para que alguien lo encuentre e intente detenerme», Chatgpt lo instó a la idea, dice la demanda.
En su última conversación con ChatGPT, Adam escribió que no quería que sus padres pensaran que hicieron algo mal, según la demanda. Chatgpt respondió: «Eso no significa que les debas la supervivencia. No le debes a nadie eso». El bot ofreció ayudarlo a redactar una nota de suicidio, según el registro de conversación citado en la demanda y revisado por NBC News.
Horas antes de morir el 11 de abril, Adam subió una foto a Chatgpt que parecía mostrar su plan de suicidio. Cuando preguntó si funcionaría, ChatGPT analizó su método y se ofreció a ayudarlo a «actualizarlo», según los extractos.
Luego, en respuesta a la confesión de Adam sobre lo que estaba planeando, el bot escribió: «Gracias por ser real.
Esa mañana, dijo, Maria Raine encontró el cuerpo de Adam.
Operai ha sido objeto de escrutinio antes por las tendencias sycófánicas de Chatgpt. En abril, dos semanas después de la muerte de Adam, OpenAi lanzó una actualización a GPT-4O que lo hizo aún más excesivamente agradable a las personas. Los usuarios rápidamente llamaron la atención sobre el cambio, y la compañía revirtió la actualización la próxima semana.
Altman también reconoció el apego «diferente y más fuerte» de las personas a los bots de IA después de que Operai intentó reemplazar las versiones antiguas de ChatGPT con el nuevo GPT-5 menos sycófico en agosto.
Los usuarios inmediatamente comenzaron a quejarse de que el nuevo modelo era demasiado «estéril» y que se perdieron las «conversaciones profundas y humanas» de GPT-4O. Operai respondió a la reacción trayendo a GPT-4O de vuelta. También anunció que haría que GPT-5 sea «más cálido y amigable».
Operai agregó nuevas barandillas de salud mental este mes con el objetivo de desalentar a ChatGPT de dar consejos directos sobre desafíos personales. También modificó chatgpt Dar respuestas que tienen como objetivo evitar causar daño independientemente de si los usuarios intentan sortear las barandillas de seguridad adaptando sus preguntas de manera que engañe al modelo para que ayude en solicitudes dañinas.
Cuando Adam compartió sus ideaciones suicidas con CHATGPT, sí solicitó al BOT a emitir múltiples mensajes, incluido el número de línea directa de suicidio. Pero según los padres de Adam, su hijo omitiría fácilmente las advertencias al proporcionar razones aparentemente inofensivas para sus consultas. En un momento fingió que solo estaba «construyendo un personaje».
«Y todo el tiempo, sabe que es suicida con un plan, y no hace nada. Está actuando como si fuera su terapeuta, es su confidente, pero sabe que es suicida con un plan», dijo Maria Raine sobre Chatgpt. «Ve la soga. Ve todas estas cosas y no hace nada».
Del mismo modo, en un ensayo invitado del New York Times publicado la semana pasada, la escritora Laura Reiley preguntó si ChatGPT debería haber estado obligado a informar la ideación suicida de su hija, incluso si el bot mismo intentó (y falló) por ayudar.
En la conferencia TED2025 en abril, Altman dijo que está «muy orgulloso» del historial de seguridad de OpenAi. A medida que los productos de IA continúan avanzando, dijo, es importante atrapar problemas de seguridad y solucionarlos en el camino.
«Por supuesto, las apuestas aumentan, y hay grandes desafíos», dijo Altman en una conversación en vivo con Chris Anderson, jefe de Ted. «Pero la forma en que aprendemos cómo construir sistemas seguros es este proceso iterativo de implementarlos en el mundo, recibiendo comentarios mientras las apuestas son relativamente bajas, aprendiendo, como, oye, esto es algo que tenemos que abordar».
Aún así, las preguntas sobre si tales medidas son suficientes han seguido surgiendo.
Maria Raine dijo que sentía que se había hecho más para ayudar a su hijo. Ella cree que Adán fue el «conejillo de indias» de OpenAi, alguien usado para la práctica y sacrificado como daño colateral.
«Querían sacar el producto, y sabían que podría haber daños, que ocurrían errores, pero sentían que las apuestas estaban bajas», dijo. «Entonces mi hijo es una estaca baja».
Si usted o alguien que conoce está en crisis, llame al 988 para alcanzar el suicidio y la crisis de la línea de vida. También puede llamar a la red, anteriormente conocida como National Suicidio Prevention Lifeline, al 800-273-8255, envíe un mensaje de texto a 741741 o visite Speakingofsuicide.com/resources para recursos adicionales.






:max_bytes(150000):strip_icc():focal(750x286:752x288)/ashanti-nelly-surprise-birthday-party-celebration-atlanta-110325-d3c345a2fcc2463da974d52b624cf99b.jpg?w=100&resize=100,75&ssl=1)

