La Corte Suprema pasa por alto el fallo sobre el alcance del escudo de responsabilidad de Internet - كورة برس

La Corte Suprema pasa por alto el fallo sobre el alcance del escudo de responsabilidad de Internet

جوجل بلس

La Corte Suprema dijo el jueves que no se pronunciaría sobre una cuestión de gran importancia para la industria tecnológica: si YouTube puede invocar una ley federal que protege a las plataformas de Internet de responsabilidad legal por lo que publican sus usuarios en una demanda presentada por la familia de una mujer asesinada. en un atentado terrorista.

En cambio, el tribunal dictaminó en un caso relacionado que una ley diferente que permite reclamos por “brindar asistencia sustancial a sabiendas” a terroristas generalmente no se aplica a las plataformas tecnológicas en primer lugar, lo que significa que no necesita decidir si se aplica el escudo de responsabilidad.

La decisión unánime de la corte en el segundo caso, Twitter v. Taamneh, No. 21-1496, resolvió efectivamente ambos casos y permitió a los jueces evitar preguntas difíciles sobre el alcance de la ley de 1996, Sección 230 de la Ley de Decencia en las Comunicaciones.

En una opinión breve y sin firmar en el caso de YouTube, Gonzalez v. Google, No. 21-1333, el tribunal dijo que no “consideraría la aplicación de la sección 230 a una demanda que parece contener poca o ninguna reclamación plausible de reparación”. En cambio, el tribunal devolvió el caso a la corte de apelaciones “para considerar la apelación de los demandantes a la luz de nuestra decisión en Twitter”.

El caso de Twitter se refiere a Navras Alasaf, quien murió en un ataque terrorista en un club nocturno de Estambul en 2017 del que el Estado Islámico se atribuyó la responsabilidad. Su familia está demandando a Twitter y otras empresas de tecnología, diciendo que permitieron que ISIS usara sus plataformas para reclutar y entrenar terroristas.

El juez Clarence Thomas, escribiendo para el tribunal, dijo que “las alegaciones de los demandantes son insuficientes para establecer que estos acusados ​​ayudaron e instigaron a ISIS en la realización del ataque en cuestión”.

Esa decisión permitió a los jueces evitar pronunciarse sobre el alcance de la Sección 230 de la Ley de Decencia en las Comunicaciones, una ley de 1996 diseñada para impulsar lo que entonces era una creación naciente llamada Internet.

La Sección 230 fue una reacción a un fallo que responsabilizaba a un tablero de mensajes en línea por lo que un usuario publicaba porque el servicio se dedicaba a la moderación del contenido. La disposición establece: “Ningún proveedor o usuario de un servicio informático interactivo será tratado como editor o hablante de información proporcionada por otro proveedor de contenido de información”.

La Sección 230 ha ayudado al surgimiento de redes sociales masivas como Facebook y Twitter al garantizar que los sitios no incurran en responsabilidad legal con cada nuevo tuit, actualización de estado y comentario. Limitar el alcance de la ley podría exponer las plataformas a demandas alegando que han dirigido a las personas a publicaciones y videos que promueven el extremismo, incitan a la violencia, dañan la reputación y causan angustia emocional.

La decisión se produce cuando el desarrollo de productos de inteligencia artificial de vanguardia plantea profundas preguntas sobre si las leyes pueden mantenerse al día con la tecnología que cambia rápidamente.

El caso fue presentado por la familia de Nohemi González, una estudiante de 23 años que fue asesinada en un restaurante de París durante los ataques terroristas allí en noviembre de 2015, que también tuvieron como objetivo la sala de conciertos Bataclan. Los abogados de la familia dicen que YouTube, una subsidiaria de Google, usó algoritmos para enviar videos del Estado Islámico a los espectadores interesados.

Un grupo creciente de legisladores, académicos y activistas bipartidistas se han vuelto escépticos sobre la Sección 230 y dicen que ha protegido a las gigantes tecnológicas de las repercusiones de la desinformación, la discriminación y el contenido violento en sus plataformas.

En los últimos años, han presentado un nuevo argumento: que las plataformas pierden sus protecciones cuando sus algoritmos recomiendan contenido, orientan anuncios o introducen nuevos enlaces a sus usuarios. Estos mecanismos de recomendación son omnipresentes y potencian funciones como la función de reproducción automática de YouTube y las sugerencias de Instagram para las cuentas a seguir. En la mayoría de los casos, los jueces rechazaron este argumento.

Los miembros del Congreso también han pedido cambios en la ley. Pero las realidades políticas han impedido en gran medida que estas propuestas ganen terreno. Los republicanos, enojados porque las empresas tecnológicas eliminan publicaciones de políticos y editores conservadores, quieren que las plataformas eliminen menos contenido. Los demócratas quieren que las plataformas eliminen más, como información falsa sobre el covid-19.