SAN FRANCISCO – El fiscal general de Florida anunció una investigación criminal sobre OpenAI, fabricante de ChatGPT, alegando que el chatbot de la compañía aconsejó al hombre acusado de matar a dos personas en un tiroteo en la Universidad Estatal de Florida el año pasado qué munición usar y dónde y cuándo atacar.
«El chatbot aconsejaba al tirador qué tipo de arma usar, qué munición iba con cada arma, si un arma sería útil o no a corta distancia», dijo el fiscal general de Florida, James Uthmeier, en una conferencia de prensa el martes. «Si hubiera una persona al otro lado de esa pantalla, la acusaríamos de asesinato».
Suscríbase al boletín The Post Most para conocer las historias más importantes e interesantes de The Washington Post.
La oficina de Uthmeier envió citaciones a OpenAI el martes, solicitando las políticas de la compañía de inteligencia artificial sobre cómo responder cuando sus usuarios amenazan con dañar a otros durante conversaciones con ChatGPT, según un comunicado. La investigación criminal anunciada el martes sigue a una investigación civil que Uthmeier anunció este mes.
«El tiroteo masivo del año pasado en la Universidad Estatal de Florida fue una tragedia, pero ChatGPT no es responsable de este terrible crimen», dijo la portavoz de OpenAI, Kate Waters. «Después de enterarnos del incidente, identificamos una cuenta ChatGPT que se cree que está asociada con el sospechoso y compartimos esta información de manera proactiva con las autoridades».
ChatGPT proporcionó “respuestas objetivas a preguntas con información que se podía encontrar ampliamente en fuentes públicas en Internet, y no fomentó ni promovió actividades ilegales o dañinas”, dijo Waters. (El Washington Post tiene una asociación de contenido con OpenAI).
Dos personas murieron y otras seis resultaron heridas en el tiroteo ocurrido en Florida State en Tallahassee en abril pasado después de que un estudiante universitario abriera fuego en el campus, dijeron las autoridades en ese momento. El presunto tirador, Phoenix Ikner, recibió disparos de la policía que invadió el campus y luego fue hospitalizado. Ikner ha sido acusado de múltiples cargos de asesinato e intento de asesinato.
«ChatGPT informó al tirador sobre qué hora del día sería apropiada para que el tiroteo interactuara con más personas y en qué parte del campus sería el lugar para encontrarse con una mayor población», dijo Uthmeier en la conferencia de prensa del martes.
OpenAI enfrenta un intenso escrutinio por parte de las fuerzas del orden y funcionarios electos después de que las autoridades alegaron que el tirador en Florida y el sospechoso en un tiroteo masivo en febrero en Canadá que mató a nueve personas discutieron su intención de dañar a otros en conversaciones con ChatGPT. Varias familias de personas que se suicidaron han presentado demandas alegando que el chatbot contribuyó a la muerte de sus seres queridos.
Los trágicos incidentes han alimentado un debate sobre qué responsabilidades tienen las empresas de inteligencia artificial para monitorear las conversaciones de los usuarios y señalarlas a las autoridades.
En un documento de diciembre de 2025 que describe cómo funcionan sus modelos de IA, OpenAI dijo que tiene un sistema para monitorear y marcar automáticamente conversaciones que podrían indicar a sus revisores humanos que un usuario está planeando dañar a alguien. Luego, esos revisores decidieron si trasladar la situación a la policía. No está claro si las conversaciones del tirador de la FSU provocaron una revisión humana por parte de OpenAI.
Las empresas de IA entrenan a sus chatbots para que no respondan preguntas con contenido ofensivo o información que pueda usarse para dañar a las personas, pero la naturaleza de cómo funciona la tecnología significa que es difícil predecir cómo puede reaccionar un chatbot en todos los escenarios posibles, dijo Ramayya Krishnan, profesor de la Universidad Carnegie Mellon que ha asesorado a la Casa Blanca y al Departamento de Defensa sobre política y gobernanza de la IA. «Las barandillas no son 100 por ciento efectivas».
Las preocupaciones sobre el impacto de la IA en las personas y la economía se están convirtiendo en cuestiones políticas, y el fiscal general de Florida y su gobernador, Ron DeSantis, han expresado su propio escepticismo sobre la industria de la IA.
El estado también se ha convertido en un campo de batalla en una creciente división dentro del Partido Republicano sobre cómo regular la IA. DeSantis presionó a la legislatura del estado para que aprobara una “declaración de derechos de la IA” que habría instituido una serie de límites sobre cómo las empresas podrían usar la IA en productos de consumo, pero después de la oposición del presidente Donald Trump, los legisladores no aprobaron el proyecto de ley.
Contenido relacionado








