Meta y YouTube ya no pueden llamarlo «error» cuando el diseño fue intencional
Otros contenidos de interés
🚫 Plétora no tolera la discriminación
En Plétora Network no se permite ningún contenido que promueva discriminación, odio o violencia por motivos de género, raza, orientación, origen, creencias o identidad. La libertad sin respeto no es libertad.
Un jurado en Los Ángeles hizo lo que los términos de servicio nunca permiten: leer entre líneas. Treinta y un días de testimonios, más de cuarenta horas de deliberación, y al final un veredicto que ninguna actualización de algoritmo podrá revertir. Las plataformas no fueron descuidadas. Fueron negligentes en el diseño. Y en el mundo legal, esa distinción es el equivalente a que alguien por fin diga en voz alta que el emperador no tiene ropa, sino un manual de retención infantil perfectamente calculado.
La demandante tiene 20 años. Cuando empezó a deslizar pantallas, era niña. El jurado escuchó cómo su salud mental se fragmentó mientras las métricas de engagement de Meta y YouTube se disparaban. El argumento de la defensa —el clásico “responsabilidad individual, control parental, libertad de uso”— no resistió el contrapeso de las pruebas. Porque cuando una empresa diseña un producto para que sea difícil de soltar, y lo comercializa a menores, el «libre albedrío» del usuario es un chiste mal contado.
Curiosamente, TikTok y Snapchat ya no estaban en el banquillo. Llegaron a acuerdos antes de que comenzara el juicio. Las que decidieron quedarse a pelear fueron Meta y YouTube. Y perdieron. No solo en términos económicos —tres millones de dólares que son apenas el aperitivo de lo que viene— sino en la narrativa que las ha protegido durante años. Porque ahora hay un fallo que dice, con todas sus letras, que actuaron con malicia. Conducta reprochable, lo llamó el jurado. En el lenguaje de Silicon Valley, eso se traduce como: sabían lo que hacían.

Cuando los CEOs no pueden esconderse detrás del código
Mark Zuckerberg y Adam Mosseri testificaron. Estuvieron ahí, bajo juramento, respondiendo por los píxeles que sus empresas convirtieron en máquinas de retención. Neal Mohan, el director de YouTube, no apareció. Una decisión que en el mundo de las demandas por adicción tecnológica dice más que cualquier declaración. No testificar no es un acto de inocencia; es la admisión de que no hay manera de pararse frente a un jurado y explicar por qué un producto diseñado para niños tiene mecanismos que los psicólogos infantiles llevan años denunciando.
El veredicto de malicia abre una puerta que los departamentos legales de las grandes tecnológicas han pasado años tratando de mantener cerrada: la de los daños punitivos. El jurado volverá a la sala. Escuchará nuevas pruebas. Y entonces los tres millones actuales se verán como una multa de tránsito al lado de lo que puede venir. Pero más allá del dinero, el verdadero castigo es el precedente. De ahora en adelante, cualquier demanda colectiva podrá citar este caso. Y cualquier juez sabrá que ya hay un jurado que dijo: el diseño negligente no es un bug, es una feature.
El comunicado de Meta fue el de siempre: respetuoso desacuerdo, evaluación de opciones legales. Traducción: están calculando cuánto les costará apelar antes de que este fallo se convierta en jurisprudencia vinculante. Pero el daño ya está hecho. Porque cuando una corte dictamina que hubo malicia en el proceso de diseño, la protección de la Sección 230 se vuelve más frágil. Y los accionistas empiezan a preguntar cosas incómodas sobre los riesgos reales del modelo de negocio.

Para los jóvenes que crecieron con estos feeds infinitos, el fallo tiene un sabor extraño. Llega después de años de ser tratados como datos, después de que cada like, cada pausa y cada scroll nocturno alimentaran bases de datos que luego vendían como «experiencia de usuario». Ahora una corte dice que eso tuvo un nombre legal: negligencia. Que no era «el precio de estar conectados». Que las empresas sabían, y que ese saber tenía consecuencias que no pueden seguir externalizando a padres cansados o adolescentes confundidos.
En Plétora Network, donde se cruzan las conversaciones que las grandes plataformas prefieren evitar, este tipo de fallos funciona como un termómetro de la paciencia social. La era de la neutralidad tecnológica se está acabando. No porque la tecnología haya cambiado, sino porque las cortes están empezando a llamar a las cosas por su nombre. Y cuando un jurado popular dice que una empresa actuó con malicia para enganchar a menores, ya no hay campaña de branding que tape eso.
Los tres millones de dólares son solo el comienzo. La factura real vendrá cuando los siguientes jurados vean este caso y entiendan que no es un accidente aislado, sino un patrón. Mientras tanto, Zuckerberg volverá a sus reuniones, Mohan seguirá sin testificar, y los algoritmos seguirán haciendo lo que fueron programados para hacer. Solo que ahora, cada vez que un menor no pueda soltar el teléfono, habrá un fallo judicial que lo explique mejor que cualquier manual de psicología.
Descubre más desde Plétora Network
Suscríbete y recibe las últimas entradas en tu correo electrónico.