Las redes pierden poder en la medida que pierden juicios casi como las nuevas tabacaleras

Domingo 12 de Abril de 2026
Edición Nº 2762


11/04/2026

Las redes pierden poder en la medida que pierden juicios casi como las nuevas tabacaleras

«El veredicto del jurado es una victoria histórica para cada niño y familia que ha pagado el precio de la decisión de Meta de anteponer las ganancias a la seguridad infantil», declaró el fiscal general de Nuevo México. El nuevo contexto digital por Casey Newton.

Tras los históricos fallos de la semana pasada en las demandas contra Meta y YouTube (en Los Ángeles) y contra Meta únicamente (en Nuevo México), las reacciones se dividieron en tres grupos básicos. 

Un bando, representado por los demandantes, estaba eufórico.

Por fin, afirmaban, las grandes tecnológicas rendirían cuentas por los daños causados ​​a los niños por sus plataformas. «El veredicto del jurado es una victoria histórica para cada niño y familia que ha pagado el precio de la decisión de Meta de anteponer las ganancias a la seguridad infantil», declaró el fiscal general de Nuevo México, Raúl Torrez, tras el veredicto. «Los ejecutivos de Meta sabían que sus productos perjudicaban a los niños, ignoraron las advertencias de sus propios empleados y mintieron al público sobre lo que sabían. Hoy, el jurado se unió a familias, educadores y expertos en seguridad infantil para decir: ¡Basta ya!».

Un segundo bando, representado por los demandados, se mostró desafiante: tanto Meta como YouTube afirmaron que planean apelar.

El tercer grupo —y el que más me ha interesado— lo conforman los escritores, académicos y pensadores que intentan comprender las implicaciones de estos veredictos para internet en general. Para este grupo, es evidente que las plataformas tecnológicas son, de una u otra forma, responsables. Sin embargo, al aceptar la premisa de que sus productos presentan defectos de diseño por los que pueden ser consideradas responsables, argumentan, los jurados podrían haber roto el pacto fundamental que sustenta internet. 

Y si estos veredictos se confirman en apelación, temen que las plataformas comiencen a restringir la libertad de expresión mucho más que antes. Lo que antes eran foros abiertos para un debate constructivo podrían volverse cada vez más asépticos e incluso censurados.


El principio fundamental en estos casos es, por supuesto, la Sección 230 de la Ley de Decencia en las Comunicaciones, que impide que las empresas sean consideradas responsables, en la mayoría de los casos, por las publicaciones de sus usuarios. Si te difamo en Facebook, puedes demandarme, pero Meta queda impune. El caso que impulsó a los legisladores a crear la Sección 230 fue un caso de difamación como este; les preocupaba que si se pudiera demandar hasta la quiebra a una plataforma solo porque un usuario hubiera difamado a otro, internet correría el riesgo de colapsar. 

Durante 30 años, la Sección 230 ha protegido a las plataformas de la responsabilidad por prácticamente todas las acciones de sus usuarios, desde la difamación hasta la venta de drogas y la incitación a la violencia. Además, junto con la Primera Enmienda, ha permitido una enorme libertad de expresión política.

Los veredictos de la semana pasada son importantes porque parecen demostrar una vía clara para que las personas que creen haber sido perjudicadas por las plataformas puedan sortear la protección legal: solo tienen que demostrar que los daños que sufrieron fueron consecuencia del diseño de la plataforma.

En estos casos, esto incluye funciones como algoritmos de recomendación, filtros de belleza, desplazamiento infinito, reproducción automática de vídeo, rachas de notificaciones y un aluvión de notificaciones push. Lo más preocupante es que, en el caso de Nuevo México, también se vio implicada la mensajería cifrada.

En el caso de Los Ángeles, el jurado se convenció de que estas funciones provocaron un uso problemático de Instagram y YouTube por parte de la demandante, y que Meta engañó a los usuarios sobre la seguridad de su plataforma en el caso de Nuevo México. De confirmarse la sentencia, las plataformas se verán presionadas a reducir drásticamente estas funciones o eliminarlas por completo, tanto para menores como, posiblemente, para adultos. Sin embargo, algunos expertos afirman que los cambios podrían tener que ir más allá.

“Debido a la presión legal derivada de los veredictos del jurado y la legislación promulgada y pendiente, la industria de las redes sociales se enfrenta a una responsabilidad legal existencial e inevitablemente tendrá que reconfigurar sus ofertas principales si no puede obtener una reparación generalizada en apelación”, escribió Eric Goldman, profesor de derecho en la Universidad de Santa Clara y experto en la Sección 230, en su blog .

Al igual que muchos en el tercer bando, Goldman temía que el fallo tuviera consecuencias nefastas para la libertad de expresión en internet. «Si bien cualquier reconfiguración de las redes sociales podría ayudar a algunas víctimas, es casi seguro que los cambios perjudicarán a muchas otras comunidades que dependen de ellas y obtienen importantes beneficios hoy en día», escribió. «Esas otras comunidades no tuvieron voz en el juicio; y sus voces también corren el riesgo de ser silenciadas en las redes sociales».

Mike Masnick, de TechDirt , otro firme defensor de la Sección 230, fue más directo.

«Si te preocupa la libertad de expresión en internet, las plataformas pequeñas, la privacidad y la posibilidad de que cualquier empresa, aparte de un puñado de gigantes tecnológicos, gestione un sitio web donde los usuarios puedan publicar contenido, estos dos veredictos deberían asustarte muchísimo», escribió. «Porque las teorías legales que se utilizaron para condenar a Meta esta semana no se limitan a las empresas que no te caen bien. Se usarán como arma contra todos».

II.

Hay aspectos de este argumento con los que estoy de acuerdo. Lo más alarmante es cómo, en el caso de Nuevo México, se argumentó que Meta había puesto en peligro la seguridad de los niños al habilitar el cifrado de extremo a extremo en la mensajería de Instagram. A principios de este mes, la compañía anunció que dejaría de usar el cifrado en Instagram y que, en su lugar, recomendaría WhatsApp.

El fiscal general Torrez es el último de una larga lista de funcionarios encargados de hacer cumplir la ley que se dan cuenta de que su trabajo sería más fácil si pudieran espiar los mensajes de cualquier persona. Pero no deberíamos tener que renunciar a nuestro derecho fundamental a la privacidad para que la policía pueda hacer menos llamadas telefónicas. Además, el cifrado fue, en el mejor de los casos, secundario en el caso de Nuevo México, que se centró más en los algoritmos de recomendación y en cómo Meta no logró controlar los movimientos sospechosos de menores en diferentes plataformas como WhatsApp, Venmo y Telegram.

También coincido en que los tribunales deben examinar con rigor cualquier intento de limitar el tipo de contenido que las plataformas pueden recomendar. Siempre que el contenido sea legal, cualquier intento de regular las recomendaciones de esta manera constituiría una clara violación de la Primera Enmienda. Por ello, sigo mostrándome escéptico ante leyes bienintencionadas como la Ley de Seguridad Infantil en Internet : si bien puede comenzar prohibiendo a las plataformas recomendar contenido sobre drogas y trastornos alimenticios, podría ampliarse fácilmente para incluir prohibiciones sobre material relacionado con disidentes, personas LGBT y otros grupos marginados.

Mi desacuerdo con quienes defienden la tercera postura radica en que, en esencia, afirman que cada decisión de diseño en una aplicación como Instagram o YouTube es una decisión editorial protegida por la Primera Enmienda. Goldman, en una entrevista con un periodista, lo expresó de la siguiente manera :

“Las redes sociales ofrecen contenido de terceros, y la configuración dependía de las decisiones editoriales de los editores sobre cómo presentarlo. Por lo tanto, la línea divisoria entre las decisiones de diseño propias y las decisiones de publicación sobre el contenido de terceros me parece ilusoria.”
No estoy tan seguro. Decir que un feed de desplazamiento infinito fomenta el uso excesivo no hace ningún comentario sobre su contenido; solo que las recompensas intermitentes que crea dicho feed lo convierten en una especie de máquina tragamonedas, y que los adolescentes tendrían menos probabilidades de desarrollar un uso problemático si no existiera.

La respuesta de Masnick a esto es que un feed de desplazamiento infinito solo es interesante si el contenido del feed es interesante; por lo tanto, la distinción entre contenido y diseño, desde una perspectiva legal, es realmente ilusoria. Él escribe :

He aquí un experimento mental: imagina Instagram, pero con cada publicación siendo un vídeo de pintura secándose. El mismo desplazamiento infinito. La misma reproducción automática. Las mismas recomendaciones algorítmicas. Los mismos sistemas de notificaciones. ¿Alguien se vuelve adicto? ¿Alguien sale perjudicado? ¿Alguien demanda?

Por supuesto que no. Porque el desplazamiento infinito no es intrínsecamente dañino.


A primera vista, es un argumento convincente. Pero ¿qué pasaría si realizáramos el experimento al revés? ¿Qué pasaría si mantuviéramos el contenido de un feed problemático de Instagram idéntico —llenándolo de publicaciones sobre trastornos alimenticios, autolesiones, provocaciones y drogas— pero lo mostráramos en una aplicación donde hubiera que pulsar un botón cada vez que se quisiera ver la siguiente publicación? ¿Qué pasaría si esta misma versión de la aplicación no enviara notificaciones push y bloqueara la reproducción automática de vídeos? Si esa fuera la versión predeterminada de Instagram, ¿crees que más personas se verían perjudicadas o menos? 

Para mí, es obvio que menos personas resultarían perjudicadas. Si se añade un poco de fricción a la experiencia, resulta mucho más fácil para la persona promedio apartar la mirada. El contenido sigue siendo el mismo, pero el mecanismo de distribución ha cambiado, al igual que la dosis.

Lo cierto es que el contenido y el diseño son necesarios para que las personas sufran daños a gran escala. Y en un país donde la Constitución impide regular el contenido, solo se puede regular el diseño.

La pregunta, por supuesto, es cómo.

III.

Una de las razones por las que la distinción entre contenido y diseño puede parecer ilusoria para algunos es que se sitúan en un espectro. Si se modifica el algoritmo de recomendaciones de Instagram para promocionar únicamente material educativo, se está cambiando tanto el contenido como el diseño de la aplicación simultáneamente. 

Por otro lado, rechazo el argumento de los 230 más acérrimos de que cada decisión de diseño es una decisión de contenido. El contenido de YouTube permanece inalterado si los videos de tu feed no se reproducen por defecto. Los mensajes de Snapchat seguirán siendo los mismos aunque se impida que Snap incentive a los adolescentes a hacer lo imposible por mantener sus rachas. TikTok seguirá siendo TikTok aunque se impida enviar notificaciones push a los adolescentes después de medianoche.

Al identificar y restringir características de diseño mecánico como estas, podemos preservar la esencia de la Sección 230 y, al mismo tiempo, limitar al menos parte del daño que pueden causar las plataformas. No me hago ilusiones de que podamos resolver la crisis de salud mental adolescente simplemente desactivando las notificaciones push en Instagram. Pero dada la complejidad del problema, lo mínimo que podemos hacer es intentar reducir el daño: y eso debería comenzar con características como las mencionadas, que prácticamente no tienen valor más allá de aumentar la valoración de las empresas más ricas del mundo.

Comprendo a los 230 defensores que temen que sea una infraestructura fundamental para internet: que cualquier modificación provocaría un colapso total. Cuando se convirtió en ley hace 30 años, solucionó un problema real. Y durante mucho tiempo, funcionó en gran medida según lo previsto, permitiendo que pequeños foros, blogs y empresas emergentes se establecieran sin ser demandados hasta la ruina cada vez que un usuario insultaba a otro. 

Pero mucho ha cambiado desde entonces. En 1996, la función de la plataforma era esencialmente de custodia. Su trabajo consistía en albergar y mostrar el discurso, y no hacía mucho más. 

Internet en 2026 es un lugar muy diferente. Las plataformas ya no son simples administradoras. Construyen sistemas sofisticados que estudian tu comportamiento para descubrir qué te mantendrá más tiempo en la aplicación y, luego, ofrecerte más de eso. Emplean a científicos cognitivos que realizan experimentos interminables para contrarrestar tu instinto de hacer otra cosa. Y lo hacen no tomando decisiones editoriales claramente humanas sobre el contenido, sino optimizando sin cesar el diseño de sus plataformas.

Por eso, al final, me alegra que los jurados hayan reconocido al menos algunas de estas características de diseño como defectuosas, y como algo distinto de lo que la Sección 230 se creó originalmente para proteger. La distinción entre contenido y diseño puede ser difusa en los márgenes, pero las diferencias entre el CompuServe de 1996 y el Instagram de hoy no son sutiles. La ley debería ser capaz de distinguirlas y de frenar los excesos de nuestras plataformas más grandes, que nos han demostrado una y otra vez que no tienen otro interés que su propia supervivencia.

La Sección 230 sigue siendo muy beneficiosa y debe manejarse con cuidado. Pero argumentar que debe permanecer inmutable y preservarse a toda costa implica el riesgo de proteger una abstracción a expensas de las personas reales. Los jurados han comenzado a darse cuenta de esto y, de una forma u otra, las plataformas tendrán que afrontar las consecuencias.

Newsletter

Suscribite a nuestro NewsLetter y recibí todas las noticias en tu mail

Notas destacadas