sábado, 18 de marzo de 2023

Libertad de expresión y plataformas digitales

Por: Yanina Pantiga* y Martín Hevia**
Desde películas en Netflix hasta personas en Instagram, las recomendaciones de las plataformas digitales a sus usuarios en función de su comportamiento online histórico se han convertido en una dimensión clave de la experiencia de los usuarios en internet. La información a la que accedemos y consumimos a diario depende en buena parte de estas recomendaciones, que pueden influir en las decisiones que tomamos.

Ahora bien, ¿deberían las plataformas ser responsables legalmente por recomendar o por no eliminar rápidamente contenidos de terceros que promueven la violencia extrema? La Corte Suprema de Estados Unidos deberá responder a este interrogante en “González c. Google” y en “Twitter c. Taamneh”, dos demandas de familiares de víctimas de ataques terroristas en los que se discute si las plataformas pueden ser consideradas cómplices del terrorismo por recomendar (en el primer caso) o por no eliminar (en el segundo) contenidos que, según los demandantes, promovieron esos atentados.

En esencia, estos casos reflejan un debate más amplio: ¿cuál es el alcance de la libertad de expresión online? ¿Cómo proteger la libertad de expresión online y al mismo tiempo prevenir la distribución masiva de contenido ilícito o que podría provocar un daño? ¿Tienen las plataformas la obligación de remover este tipo de contenidos? ¿Qué criterios y procedimientos deberían seguir para hacerlo?

En Estados Unidos, el artículo 230 de la CDA prevé un régimen de inmunidad general, protegiendo a los intermediarios digitales (como las plataformas) de responsabilidad por el contenido publicado por los usuarios y garantizándoles amplia discrecionalidad para moderar ese contenido. Esta norma no menciona las recomendaciones, pero podría argumentarse que son solo una forma de priorizar ciertos contenidos para presentar la enorme cantidad de información disponible y que no reflejan un compromiso con el valor del contenido ni participación en su creación. En general, se entiende que, sin inmunidad, las plataformas tendrían incentivos para monitorear y restringir en exceso los contenidos de sus usuarios para minimizar la amenaza de responsabilidad por contenidos ilegales o nocivos. Así, contenidos socialmente valiosos (como mensajes de activistas sociales) podrían ser retirados solo porque se parecen a los realmente nocivos. Por ello, si se resolviera que las plataformas son responsables por los contenidos que recomiendan o que no eliminan, aumentaría el riesgo legal que enfrentan por el contenido de sus usuarios, lo que podría provocar un efecto sistémico muy contraproducente para la libre circulación de ideas e información.

En Argentina no tenemos un marco regulatorio específico. En un futuro, el Congreso podría tomar el enfoque estadounidense como modelo regulatorio o, alternativamente, podría basarse en el europeo, actualizado recientemente a través de la Ley de Servicios Digitales. Este modelo es más exigente, busca limitar la discrecionalidad de las plataformas para moderar contenidos, transparentar estas prácticas y evitar tratos injustos o arbitrarios.

Hoy, solo contamos con un estándar de responsabilidad fijado por la Corte Suprema de Justicia en el fallo “Rodríguez, M.B. c. Google”, de 2014. Allí, la Corte extendió su defensa robusta de la libertad de expresión invocando la Convención Americana de Derechos Humanos, que establece que la libertad de expresión comprende la libertad de buscar, difundir y recibir informaciones de todo tipo y por cualquier medio y que, como regla, el ejercicio de este derecho no puede estar sujeto a censura previa. Según la Corte, Google actúa como mero intermediario entre los usuarios y las páginas web. Responsabilizarlo por contenidos de terceros sería como sancionar a la biblioteca que facilitó el acceso a un libro con contenido nocivo, con el pretexto de que habría facilitado la producción de un daño. Los motores de búsqueda no tienen una obligación general de monitorear contenidos y, por excepción, solo son responsables legalmente cuando toman “efectivo conocimiento” de determinado contenido ilícito y no lo eliminan o bloquean.

En cualquier caso, podemos aprovechar el debate planteado internacionalmente como una oportunidad para reflexionar sobre el presente y, especialmente, el futuro de la libertad de expresión online en nuestro país.
*Profesora de la carrera de Abogacía
** Profesor de la carrera de Abogacía y director general de Estudios, Universidad Torcuato Di Tella (UTDT)
Fuente: Diario Perfil