Este martes se presentó la propuesta “Estándares para una regulación democrática de las grandes plataformas que garantice la libertad de expresión en línea y una internet libre y abierta”, que busca establecer criterios para la regulación de contenido buscando una “tercera vía” para dejar de lado las tendencias actuales, que son la autorregulación de las compañías tecnológicas o la intervención estatal total.
El documento, elaborado por el Observatorio Latinoamericano de Regulación, Medios y Convergencia (Observacom) y firmado por 10 organizaciones latinoamericanas de libertad de expresión, entre las que se encuentra la uruguaya Cainfo, se enfoca en aspectos como el alcance y el carácter de las regulaciones, los términos y condiciones, la transparencia de las plataformas digitales, el cumplimiento de un debido proceso para el autor del contenido, el derecho a la defensa y la apelación, la rendición de cuentas y la corregulación.
En una conferencia de prensa virtual, el director ejecutivo de Observacom, Gustavo Gómez, sostuvo que la forma en que se regula el contenido en internet es un tema que “se está debatiendo en todo el mundo” y esa discusión se está trasladando de a poco a América Latina, por lo que “Uruguay no va a demorar en discutirlo de manera más seria” y por eso es preferible anticiparse con esta propuesta.
El relator especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos, el colombiano Pedro Vaca, planteó que en la actualidad hay tres “escenarios indeseables” al pensar en una regulación. Por un lado están los “excesos regulatorios” en los que pueden caer algunos Estados, convirtiendo la moderación de contenido en un mecanismo de censura. El segundo es la “fe ciega en la autorregulación” de las empresas tecnológicas, porque “no necesariamente está enfocada en satisfacer los derechos humanos” de las personas. Y en tercer lugar se encuentra la consideración de que “la solución pasa por un ajuste de tuercas en el ecosistema digital”. “Si somos sociedades analógicamente violentas, no esperemos que las redes sociales sean lugares pacíficos y cordiales”, señaló.
En este sentido, Gómez indicó que el documento busca “empoderar a los usuarios de redes sociales” ante la intervención de intermediarios en el discurso público y que se establezcan “reglas progresivas razonables y democráticas” para que la moderación hecha por privados esté en consonancia con los estándares internacionales de derechos humanos, haciendo que las plataformas no sean “policías privadas” haciéndose cargo de lo que no pueden los Estados ni que lo hagan por decisión propia.
La propuesta
La búsqueda de esta “tercera vía” pasa por implementar mecanismos que sean complementarios y que combinen autorregulación, regulación estatal y también corregulación. A su vez, el documento propone más exigencias a las plataformas grandes como Facebook, Twitter, Instagram o Youtube y una reglamentación mínima para las startups sin fines de lucro o más específicas.
La propuesta plantea la transparencia algorítmica, es decir, que las grandes plataformas hagan públicos sus criterios de curación y priorización de contenidos, así como la transparencia de forma activa y pasiva en las condiciones de uso, la política de moderación y sus resultados y en los contenidos promocionados, con énfasis en los que se divulgan durante los procesos electorales.
Se plantea también que los términos y condiciones de los servicios no deben ser abusivos, en el sentido que las normas establecidas por las plataformas no pueden ser incompatibles con los estándares internacionales de derechos humanos y libertad de expresión, estableciendo condiciones mínimas para darle margen de maniobra a los usuarios. En este sentido, la propuesta plantea que no se puede obligar a apelar a una jurisdicción extranjera (la mayoría de estas compañías tienen su sede en Estados Unidos) para resolver los conflictos, y que de esta manera se pueda garantizar un debido proceso en el que los usuarios tengan derecho a defenderse antes de que una plataforma elimine o restrinja el alcance de su contenido. En este sentido también se proponen mecanismos de apelación accesibles, rápidos y efectivos.
En la misma línea también se plantea que las grandes plataformas no utilicen filtros de subida o de carga, que en la práctica eliminan o restringen el alcance de un contenido al momento de su publicación, ya que estos filtros programados han arrojado infinidad de casos de eliminación de contenido o de cuentas de manera automática por errores.
A su vez, la propuesta considera que la notificación y eliminación de un contenido no puede ser resuelta por defecto y que sean claras para que los usuarios tengan la posibilidad de corregir lo que publican.
Por otro lado, la propuesta de Observacom también sostiene que las plataformas deben tener la garantía de no sufrir una intervención estatal ilegítima, por lo que la legislación para moderar contenidos también tiene que proteger a los intermediarios, manteniendo el estándar de no responsabilidad objetiva en el contenido de terceros prohibiendo a los estados que obliguen a las empresas a realizar monitoreos de contenido de los usuarios.
Derechos de autor
Uno de los puntos de la propuesta plantea que, cuando se modera contenido que incluye algún tipo de derecho de autor (por ejemplo, un video en Youtube que incluye una canción con copyright), “los filtros de carga o subida por eventuales violaciones a derechos de autor son inconsistentes con la prohibición de censura previa establecida en la Convención Americana de Derechos Humanos”. En este sentido, propone que “al usuario se le debe informar quién ha hecho la reclamación” y que “el tratamiento de contenido apuntado como infractor debe seguir los trámites de notificación y contranotificación”.
En este sentido, la socióloga Mariana Fossatti sostuvo en la conferencia que “las grandes plataformas no deberían remover contenido por derecho de autor sin resolución judicial”, ya que “a estas plataformas no les corresponde validar la legalidad de los reclamos”.
“Creo que no solo se debe no recomendar, sino directamente prohibir la idea de que existan mecanismos automatizados para eliminar contenidos por derechos de autor”, indicó.
Foto: Pablo Vignali / adhocFotosLa búsqueda de esta “tercera vía” pasa por implementar mecanismos que sean complementarios y que combinen autorregulación, regulación estatal y también corregulación. A su vez, el documento propone más exigencias a las plataformas grandes como Facebook, Twitter, Instagram o Youtube y una reglamentación mínima para las startups sin fines de lucro o más específicas.
La propuesta plantea la transparencia algorítmica, es decir, que las grandes plataformas hagan públicos sus criterios de curación y priorización de contenidos, así como la transparencia de forma activa y pasiva en las condiciones de uso, la política de moderación y sus resultados y en los contenidos promocionados, con énfasis en los que se divulgan durante los procesos electorales.
Se plantea también que los términos y condiciones de los servicios no deben ser abusivos, en el sentido que las normas establecidas por las plataformas no pueden ser incompatibles con los estándares internacionales de derechos humanos y libertad de expresión, estableciendo condiciones mínimas para darle margen de maniobra a los usuarios. En este sentido, la propuesta plantea que no se puede obligar a apelar a una jurisdicción extranjera (la mayoría de estas compañías tienen su sede en Estados Unidos) para resolver los conflictos, y que de esta manera se pueda garantizar un debido proceso en el que los usuarios tengan derecho a defenderse antes de que una plataforma elimine o restrinja el alcance de su contenido. En este sentido también se proponen mecanismos de apelación accesibles, rápidos y efectivos.
En la misma línea también se plantea que las grandes plataformas no utilicen filtros de subida o de carga, que en la práctica eliminan o restringen el alcance de un contenido al momento de su publicación, ya que estos filtros programados han arrojado infinidad de casos de eliminación de contenido o de cuentas de manera automática por errores.
A su vez, la propuesta considera que la notificación y eliminación de un contenido no puede ser resuelta por defecto y que sean claras para que los usuarios tengan la posibilidad de corregir lo que publican.
Por otro lado, la propuesta de Observacom también sostiene que las plataformas deben tener la garantía de no sufrir una intervención estatal ilegítima, por lo que la legislación para moderar contenidos también tiene que proteger a los intermediarios, manteniendo el estándar de no responsabilidad objetiva en el contenido de terceros prohibiendo a los estados que obliguen a las empresas a realizar monitoreos de contenido de los usuarios.
Derechos de autor
Uno de los puntos de la propuesta plantea que, cuando se modera contenido que incluye algún tipo de derecho de autor (por ejemplo, un video en Youtube que incluye una canción con copyright), “los filtros de carga o subida por eventuales violaciones a derechos de autor son inconsistentes con la prohibición de censura previa establecida en la Convención Americana de Derechos Humanos”. En este sentido, propone que “al usuario se le debe informar quién ha hecho la reclamación” y que “el tratamiento de contenido apuntado como infractor debe seguir los trámites de notificación y contranotificación”.
En este sentido, la socióloga Mariana Fossatti sostuvo en la conferencia que “las grandes plataformas no deberían remover contenido por derecho de autor sin resolución judicial”, ya que “a estas plataformas no les corresponde validar la legalidad de los reclamos”.
“Creo que no solo se debe no recomendar, sino directamente prohibir la idea de que existan mecanismos automatizados para eliminar contenidos por derechos de autor”, indicó.
Fuente: La Diaria