WASHINGTON — En un caso con el potencial de cambiar la estructura misma de Internet, la Corte Suprema examinó el martes los límites de una ley federal que protege a las plataformas de redes sociales de la responsabilidad legal por lo que los usuarios publican en sus sitios.
Los jueces parecían ver las posiciones adoptadas por ambas partes como demasiado extremas y expresaron dudas sobre su propia competencia para encontrar un término medio. “Estos no son los nueve mayores expertos en Internet”, dijo la jueza Elena Kagan sobre la Corte Suprema.
Otros tenían preocupaciones prácticas. El juez Brett M. Cavanaugh dijo que el tribunal no debería “romper la economía digital”.
El caso fue presentado por la familia de Nohemi González, una estudiante de 23 años que fue asesinada en un restaurante de París durante los ataques terroristas de noviembre de 2015 que también tuvieron como objetivo la sala de conciertos Bataclan. Eric Schnapper, un abogado de la familia, argumentó que YouTube, una subsidiaria de Google, era responsable porque usó algoritmos para enviar videos del Estado Islámico a espectadores interesados usando información que la compañía había recopilado sobre ellos.
“Nos estamos enfocando en la función de recomendación”, dijo Schnapper.
Pero el juez Clarence Thomas dijo que las recomendaciones eran vitales para que las plataformas de Internet fueran útiles. “Si estás interesado en cocinar”, dijo, “no quieres miniaturas para jazz ligero”. Más tarde agregó: “Veo esto como sugerencias, no como recomendaciones”.
Conozca los términos de la Corte Suprema de EE. UU.
Schnapper dijo que YouTube debería rendir cuentas por su algoritmo, que según él recomienda sistemáticamente videos que incitan a la violencia y apoyan el terrorismo. El algoritmo, dijo, es el discurso de YouTube y difiere de lo que han publicado los usuarios de la plataforma.
El juez Kagan presionó al Sr. Schnapper para que limitara sus argumentos. ¿También se opuso a los algoritmos que usan Facebook y Twitter para generar los feeds de las personas? ¿O con los motores de búsqueda?
Schnapper dijo que todos podrían perder la protección bajo ciertas circunstancias, una respuesta que pareció sorprender al juez Kagan.
La jueza Amy Coney Barrett preguntó si los usuarios de Twitter podrían ser demandados por retuitear videos de ISIS. Schnapper dijo que la ley en cuestión en el caso podría permitir tal reclamo. “Es el contenido que has creado”, dijo.
La ley, Sección 230 de la Ley de Decencia en las Comunicaciones, fue aprobada en 1996, en la infancia de Internet. Esto fue en respuesta a un fallo que responsabilizaba a un tablero de mensajes en línea por lo que un usuario publicaba porque el servicio participaba en la moderación del contenido.
Cómo los reporteros del Times cubren la política. Confiamos en que nuestros periodistas sean observadores independientes. Entonces, si bien los miembros del personal del Times pueden votar, no se les permite respaldar o hacer campaña por candidatos o causas políticas. Esto incluye participar en marchas o mítines en apoyo de un movimiento o dar dinero o recaudar dinero para cualquier candidato político o causa de campaña.
La disposición establece: “Ningún proveedor o usuario de un servicio informático interactivo será tratado como editor o hablante de información proporcionada por otro proveedor de contenido de información”.
La disposición ayudó a impulsar el auge de las redes sociales como Facebook y Twitter al garantizar que los sitios no asumieran la responsabilidad legal de cada publicación.
Malcolm L. Stewart, abogado de la administración Biden, abogó por la familia en Gonzalez v. Google, No. 21-1333. Dijo que las demandas exitosas basadas en referencias serían raras, pero la inmunidad provista por la Sección 230 generalmente no estaba disponible.
Más sobre la Corte Suprema de los Estados Unidos
Lisa S. Blatt, abogada de Google, dijo que la disposición brinda a la empresa una protección total contra demandas como la presentada por la familia de la Sra. González. Los algoritmos de YouTube son una forma de gestión editorial como los resultados de los motores de búsqueda o las fuentes de Twitter, dijo. Sin la capacidad de proporcionar contenido de interés para los usuarios, dijo, Internet sería un desastre inútil.
“Cualquier publicación requiere organización”, dijo.
Un fallo contra Google, dijo, obligaría a los sitios a eliminar cualquier contenido que sea remotamente problemático o permitiría todo el contenido, sin importar cuán vil. “Vas a tener The Truman Show versus un espectáculo de terror”, dijo.
El juez Kagan le preguntó a la Sra. Blatt si la Sección 230 protegería un algoritmo “pro-ISIS” o uno que promueva el discurso difamatorio. La señora Blatt dijo que sí.
La Sección 230 ha enfrentado críticas en todo el espectro político. Muchos liberales dicen que esto ha protegido a las plataformas tecnológicas de la responsabilidad por desinformación, discurso de odio y contenido violento. Algunos conservadores dicen que la disposición ha permitido que las plataformas se vuelvan tan poderosas que pueden excluir efectivamente las voces de la derecha de la conversación nacional.
Los jueces escucharán argumentos en un caso relacionado el miércoles, también derivado de un ataque terrorista. Ese caso, Twitter v. Taamneh, #21-1496, fue presentado por la familia de Nawras Alassaf, quien murió en un ataque terrorista en Estambul en 2017.
La cuestión en este caso es si Twitter, Facebook y Google pueden ser demandados en virtud de la Ley Antiterrorista de 1990 por la teoría de que incitaron al terrorismo al permitir que el Estado Islámico usara sus plataformas. Si los jueces dicen que no, el caso contra Google presentado el martes podría ser discutible.
Pase lo que pase en los casos discutidos esta semana, ambos relacionados con la interpretación de los estatutos, es muy probable que el tribunal acepte considerar la inminente cuestión de la Primera Enmienda que surge de las leyes aprobadas en Florida y Texas: los estados de May no permiten que las principales empresas de redes sociales eliminar publicaciones en función de las opiniones que expresan?