La historia de la Justicia está marcada por momentos en los que la sociedad se ve obligada a confrontar las consecuencias de sus propios avances. El juicio que comenzó en Los Ángeles contra gigantes tecnológicos como Meta y Google (TikTok llegó a un acuerdo) representa uno de esos hitos históricos.
El proceso no se reduce simplemente a una disputa legal sobre daños y perjuicios: es un examen profundo de cómo las nuevas tecnologías están impactando en la salud, la educación y la cultura. Y de la enorme dificultad que enfrentamos para regular herramientas que parecen haber escapado al control ético de la humanidad.
La trascendencia histórica de este proceso radica en que es la primera vez que las grandes empresas tecnológicas deben defender su caso ante un jurado por lo que se considera el diseño deliberadamente adictivo de sus plataformas.
El caso de la joven identificada como KGM –quien alega que el uso de Instagram y YouTube desde su infancia derivó en adicción, depresión y pensamientos suicidas– es el primero de miles que podrían cambiar para siempre el modelo de negocio de Silicon Valley.
Los expertos ya comparan este momento con los juicios contra las tabacaleras en los años 1990, con lo que sugieren que estamos ante la revelación de una industria que, en busca de beneficios, ignoró el bienestar de sus usuarios más vulnerables.
La dificultad que implica para la sociedad pensar su relación con la tecnología se manifiesta en la sofisticación de las acusaciones.
La demanda sostiene que estas empresas utilizaron técnicas conductuales y neurobiológicas similares a las de las máquinas tragamonedas, para maximizar el compromiso juvenil y los ingresos publicitarios.
Esto plantea un dilema cultural profundo: ¿cómo puede la educación y el desarrollo normal de un niño competir con algoritmos diseñados para “engancharlos” el mayor tiempo posible?
Ya hay escuelas y educadores que acusan a las redes por los daños causados a los estudiantes, lo que evidencia que el impacto ha desbordado el ámbito privado para convertirse en una crisis de salud pública y educativa.
Mientras las empresas se defienden con el argumento de que la salud mental es un problema “multifacético” y que ellas no son responsables del contenido de terceros, la evidencia presentada sobre explotación sexual y acoso diario a miles de menores en sus plataformas indica una realidad más compleja.
La respuesta global, desde la prohibición de redes para menores de 15 años en Francia hasta las restricciones en Australia, demuestra que la humanidad está en una carrera contra el tiempo para redefinir su convivencia con lo digital.
Este juicio vuelve a recordarnos que la tecnología no es una fuerza neutral. Las decisiones de diseño son decisiones morales.
La resolución de este caso y de los que vendrán determinará la forma en que se aborda el conflicto entre el desarrollo saludable de las nuevas generaciones y los algoritmos de rentabilidad. Estamos ante el inicio de una era en que se ha vuelto necesario afrontar la cuestión de la responsabilidad digital.



























