Un tribunal de Los Ángeles alberga lo que podría convertirse en el desafío legal más importante que jamás haya enfrentado las grandes empresas tecnológicas.
Este es un punto de inflexión en el debate global sobre la responsabilidad de las Big Tech: por primera vez, se le pide a un jurado estadounidense que decida si el diseño de la plataforma en sí puede dar lugar a responsabilidad del producto, no por lo que los usuarios publican en ellas, sino por cómo fueron construidas.
Como experto en políticas tecnológicas y derecho, creo que la decisión, cualquiera que sea el resultado, probablemente generará un poderoso efecto dominó en los Estados Unidos y en todas las jurisdicciones de todo el mundo.
el caso
La demandante es una mujer de California de 20 años identificada por sus iniciales, KGM. Dijo que comenzó a usar YouTube alrededor de los 6 años y creó una cuenta de Instagram a los 9. Su demanda y testimonio alegan que las características de diseño de las plataformas, que incluyen me gusta, motores de recomendación algorítmicos, desplazamiento infinito, reproducción automática y recompensas deliberadamente impredecibles, la volvieron adicta. La demanda alega que su adicción alimentó la depresión, la ansiedad, la dismorfia corporal (cuando alguien se ve feo o desfigurado cuando no lo es) y pensamientos suicidas.
TikTok y Snapchat llegaron a un acuerdo con KGM antes del juicio por sumas no reveladas, dejando a Meta y Google como los restantes acusados. El director ejecutivo de Meta, Mark Zuckerberg, testificó ante el jurado el 18 de febrero de 2026.
Lo que está en juego va mucho más allá de un solo demandante. El caso de KGM es un juicio referente, lo que significa que el tribunal lo eligió como un caso de prueba representativo para ayudar a determinar los veredictos en todos los casos relacionados. Esos casos involucran aproximadamente 1,600 demandantes, incluidas más de 350 familias y más de 250 distritos escolares. Sus reclamos han sido consolidados en un Procedimiento de Coordinación del Consejo Judicial de California, No. 5255.
El procedimiento de California comparte equipos legales y un conjunto de pruebas, incluidos documentos internos de Meta, con un litigio federal multidistrital que está previsto que avance en los tribunales a finales de este año, reuniendo miles de demandas federales.
Innovación jurídica: el diseño como defecto
Durante décadas, la Sección 230 de la Ley de Decencia en las Comunicaciones protegió a las empresas de tecnología de la responsabilidad por el contenido que publican sus usuarios. Siempre que las personas demandaban por daños relacionados con las redes sociales, las empresas invocaban la Sección 230 y los casos normalmente terminaban antes de tiempo.
El litigio de KGM utiliza una estrategia legal diferente: la responsabilidad del producto basada en negligencia. Los demandantes argumentan que el daño surge no del contenido de terceros sino de las propias decisiones de ingeniería y diseño de las plataformas, la “arquitectura de la información” y las características que dan forma a la experiencia de los usuarios con el contenido. El desplazamiento infinito, la reproducción automática, las notificaciones calibradas para aumentar la ansiedad y los sistemas de recompensa variable operan según los mismos principios de comportamiento que las máquinas tragamonedas.
Se trata de elecciones conscientes de diseño de productos, y los demandantes sostienen que deberían estar sujetos a las mismas obligaciones de seguridad que cualquier otro producto fabricado, responsabilizando así a sus fabricantes por negligencia, responsabilidad estricta o incumplimiento de la garantía de idoneidad.
La jueza Carolyn Kuhl del Tribunal Superior de California estuvo de acuerdo en que estas reclamaciones justificaban un juicio con jurado. En su fallo del 5 de noviembre de 2025, que denegó la moción de Meta de juicio sumario, distinguió entre características relacionadas con la publicación de contenido, que la Sección 230 podría proteger, y características como el momento de las notificaciones, los bucles de participación y la ausencia de controles parentales significativos, que tal vez no lo hiciera.
Aquí, Kuhl estableció que la distinción entre conducta y contenido (tratar las elecciones de diseño algorítmico como la conducta propia de la empresa en lugar de la publicación protegida del discurso de un tercero) era una teoría legal viable para que la evaluara un jurado. Este enfoque detallado, que evalúa cada característica de diseño individualmente y reconoce las crecientes complejidades del diseño de productos tecnológicos, representa una hoja de ruta potencial para los tribunales de todo el país.
Lo que sabían las empresas
La teoría de la responsabilidad del producto depende en parte de lo que las empresas sabían sobre los riesgos de sus diseños. La filtración de 2021 de documentos Meta internos, ampliamente conocidos como “Documentos de Facebook”, reveló que los propios investigadores de la compañía habían señalado preocupaciones sobre los efectos de Instagram en la imagen corporal y la salud mental de los adolescentes.
Las comunicaciones internas reveladas en los procedimientos de KGM han incluido intercambios entre empleados de Meta que comparan los efectos de la plataforma con el tráfico de drogas y los juegos de azar. Si esta conciencia interna constituye el tipo de conocimiento corporativo que respalda la responsabilidad es una cuestión fáctica central que debe decidir el jurado.
Ray Lustig/The Washington Post vía Getty Images
Existe una clara analogía con los litigios relacionados con el tabaco. En la década de 1990, los demandantes tuvieron éxito contra las empresas tabacaleras al demostrar que habían ocultado pruebas sobre la naturaleza adictiva y mortal de sus productos. En KGM, los demandantes aquí presentan el mismo argumento central: donde hay conocimiento corporativo, ataques deliberados y negación pública, surge la responsabilidad.
El principal abogado litigante de KGM, Mark Lanier, es el mismo abogado que ganó veredictos multimillonarios en el litigio sobre talco para bebés de Johnson & Johnson, lo que indica la escala de responsabilidad que están persiguiendo.
La ciencia: controvertida pero trascendental
La evidencia científica sobre las redes sociales y la salud mental de los jóvenes es real pero genuinamente compleja. El Manual Diagnóstico y Estadístico de los Trastornos Mentales (DSM-5) no clasifica el uso de las redes sociales como un trastorno adictivo. Investigadores como Amy Orben han descubierto que los estudios a gran escala muestran asociaciones promedio pequeñas entre el uso de las redes sociales y la reducción del bienestar.
Sin embargo, la propia Orben ha advertido que estos promedios podrían enmascarar daños graves experimentados por un subconjunto de usuarios jóvenes vulnerables, particularmente niñas de 12 a 15 años. La cuestión legal bajo la teoría de la negligencia no es si las redes sociales dañan a todos por igual, sino si los diseñadores de plataformas tenían la obligación de tener en cuenta las interacciones previsibles entre sus características de diseño y las vulnerabilidades de las mentes en desarrollo, especialmente cuando la evidencia interna sugería que eran conscientes de los riesgos.
En primer lugar, un fabricante tiene el deber de ejercer un cuidado razonable al diseñar su producto, y ese deber se extiende a los daños que sean razonablemente previsibles. En segundo lugar, el demandante debe demostrar que el tipo de daño sufrido fue una consecuencia previsible de la elección del diseño. No es necesario que el fabricante haya previsto el daño exacto al demandante exacto, pero la categoría general de daño debe haber estado dentro del rango de lo que un diseñador razonable anticiparía.
Esta es la razón por la que los documentos de Facebook y la investigación interna de Meta son tan importantes desde el punto de vista legal en el caso de KGM: van directamente a establecer que los propios investigadores de la compañía identificaron las categorías específicas de daño (depresión, dismorfia corporal, patrones de uso compulsivo entre las adolescentes) que la demandante alega que sufrió. Si los propios datos de la empresa señalaran estos riesgos y el liderazgo continuara en la misma trayectoria de diseño, eso fortalecería considerablemente el elemento de previsibilidad.
Por qué es importante
Incluso si la ciencia no está clara, el panorama legal y político está cambiando rápidamente. Sólo en 2025, 20 estados de EE. UU. promulgaron nuevas leyes que regulan el uso de las redes sociales por parte de los niños. Y esta ola no es sólo en Estados Unidos; Países como el Reino Unido, Australia, Dinamarca, Francia y Brasil también están avanzando con legislación específica, incluidos mandatos que prohíben las redes sociales para menores de 16 años.
La prueba de KGM representa algo más fundamental: la proposición de que las decisiones de diseño algorítmico son decisiones de producto, que conllevan obligaciones reales de seguridad y responsabilidad. Si este marco se afianza, todas las plataformas deberán reconsiderar no sólo qué contenido aparece, sino también por qué y cómo se entrega.









