sábado, 9 de mayo de 2020

Fuimos nombrados para ser ingratos con Facebook

La abogada colombiana Catalina Botero, una de las responsables del consejo asesor que revisará el contenido que modera esta red, reflexiona sobre los propósitos del comité
Por: Catalina Oquendo
Catalina Botero-Marino, copresidente del consejo asesor de Facebook y decana de la Facultad de Derecho de la Universidad de Los Andes
Catalina Botero-Marino (Bogotá, 1965) es la voz hispanohablante en el consejo asesor de contenido que revisará las decisiones que tome Facebook acerca de qué información mantiene o retira de esta red social. La llamada Súper Corte de Facebook o el tribunal de apelaciones es -como ha explicado Botero- un modelo alternativo ante las fallas de moderación de las plataformas y los intentos de regulaciones gubernamentales. “Si tiene éxito evitará la tentación de las regulaciones estatales que son tan peligrosas”.

La abogada Botero fue Relatora Especial para la Libertad de Expresión de la CIDH y es la decana de la Facultad de Derecho de la Universidad de Los Andes. Presidirá este consejo independiente, junto a la ex primera ministra danesa Helle Thorning-Schmidt, Jamal Greene, catedrático de la Universidad de Columbia, y Michael McConnell, ex juez federal y ahora catedrático en la Universidad de Stanford. Un desafío mayúsculo ante un universo de más 3.000 millones de usuarios de Facebook e Instagram y cientos de miles de solicitudes diarias de moderación de contenidos.

La moderación que hacen las plataformas se ha convertido en un nudo gordiano. ¿Cuál es el diagnóstico del que parte el consejo?
Las plataformas han respondido con el diseño de unas reglas internas de moderación de contenidos que es lo que llaman estándares comunitarios. Pero son aplicadas o por inteligencia artificial o por un grupo de personas que no conocen el contexto en que produce la información y tampoco saben de derecho internacional de los derechos humanos. Esos sistemas y grupos humanos son muy buenos para detectar las cosas más obvias o en las que no hay que tomar ninguna decisión y la información es legítima o claramente se trata de casos de pornografía infantil y hay que sacarla de la red. Pero en los casos más emblemáticos y urgentes no hay ninguna seguridad de que la plataforma lo esté haciendo bien. Además, incluso si lo hiciera bien hay casos donde puede haber conflicto de intereses.

¿Cuál fue el quiebre para llegar a este modelo?
Hay dos casos emblemáticos que generaron enorme discusión. De un lado, el de la foto icónica de la guerra de Vietnam en la que una niña huye del Napalm. En 2016, un diario europeo publica la foto para ilustrar un artículo, pero la inteligencia artificial de Facebook la saca porque la niña está desnuda. El director del periódico se queja a Facebook de cómo puede estar la libertad de expresión en manos de un robot y empieza el debate sobre si la plataforma censura o no y qué retira. En el otro extremo, es una crítica a la información que Facebook no saca de la red social.

Tiene que ver con la persecución a los Rohinyá en Myanmar, donde se utilizaron las redes de Facebook para generar algo que puede ser incitación al genocidio. Los usuarios le dijeron a Facebook que eso no podía circular y la plataforma se demoró en quitar la información. Después, Mark Zuckerberg pidió disculpas. Es la otra cara de la moneda, de información que claramente debió salir porque estaba incitando a la violencia contra un grupo minoritario.

¿Cuál será su naturaleza? ¿Es un tipo de tribunal de ética o de apelaciones tipo Corte Suprema?
El diseño del consejo parte de la pregunta que se hace Facebook de cómo respondemos a este tipo de casos con un modelo que es de autorregulación pero con una junta independiente. Tiene dos funciones. La primera es cuando recoge un caso y ahí la decisión que tomemos es obligatoria para Facebook, pero el consejo solo puede atraer un caso en el que la plataforma ya ha tomado la decisión. Ahí sí actuaría como una suerte de corte de apelación. Por eso la han llamado la Súper Corte de Facebook. La segunda función es consultiva. Puede sugerirle a Facebook el cambio en sus políticas. Esa no es obligatoria, pero le puede decir a la compañía: la manera como usted describe esta prohibición es demasiado ambigua y sus robots de inteligencia artificial no están entendiendo bien y están sacando información que no deberían sacar, corríjala.

¿Cómo están estipuladas las reglas, ¿cómo será la crítica pública hacia la compañía?
Si el consejo advierte que hay una situación sistemática de las políticas le puede hacer una recomendación pública. Facebook tiene que responderla también públicamente. Tendría un costo reputacional muy alto no adoptar las recomendaciones. Por otro lado, las decisiones (sobre los casos) si las tiene obedecer por el propio diseño institucional que creó.

¿En qué casos se podrá negar?
Las reglas contemplan el procedimiento y la obligación de cumplir la decisión salvo que sea ilegal. Pero es muy poco probable que un consejo de esta naturaleza adopte una decisión así. Es muy importante la transparencia. El deber de las cuatro personas que fuimos nombradas es ser ingratos con Facebook. Tal como los jueces constitucionales elegidos por el Congreso que luego deben revisar las leyes hechas por ese Congreso que los eligió.

Sobre la transparencia, ¿qué se puede decir a quienes temen que este pueda convertirse en un tribunal de censura?
Todas las personas que integran esta junta han trabajado con derecho constitucional o con derecho internacional de los derechos humanos y con estándares avanzados que impiden la censura. El consejo está orientado a la defensa de la libertad de expresión. Salvo aquellos casos en los que el discurso puede causar un daño real y desproporcionado en un derecho humano y no hay ninguna manera de evitar ese daño distinta a la moderación del contenido. Es la única razón que podría justificar una moderación.

Con esos desafíos, ¿cree que este modelo de consejo supone un parteaguas para la regulación en Internet?
Es un modelo único y si funciona tendría dos tipos de impactos. Por un lado en las comunidades en las cuales se moderan los contenidos. La idea es poder explicar por qué un determinado contenido a pesar de que alguna gente no le guste tiene que poder circular o por qué otro contenido produce un daño de tal magnitud que no hay otra manera de manejarlo que excluyendo el contenido. El otro impacto es más estructural y es que la discusión sobre las fallas de las plataformas había llegado hasta el punto de sugerir regulaciones estatales que fue lo único que se le ocurrió a mucha gente ante las fallas de las plataformas. Entonces, si este modelo tiene éxito puede suponer una respuesta a las inquietudes de quienes consideran que la regulación de las plataformas no es adecuada. También una respuesta que evite la regulación estatal y que permita que Internet siga siendo como lo conocemos hoy con su potencial enorme democratizador, aunque circule información falsa. Si este modelo alternativo funciona, en los sistemas más democráticos vamos a evitar la tentación de la regulación estatal. Puede ser un parteaguas, pero va a depender de cómo funcione. Su diseño institucional permite tener esperanza.

Hay casos de violaciones claras a los derechos humanos, pero ¿qué pasará con los casos más nebulosos que pueda manejar el consejo?
La mayoría de los casos tienen que ver con violación de derechos fundamentales. Es difícil encontrar moderación de contenidos que no tengan que ver con derechos de los niños y las niñas; la violación de los grupos marginados, que pueden causar discriminación, o de grupos amenazados, de discurso de odio. No vamos a conocer de los casos más simples. Esos se van a seguir moderando por los sistemas habituales de la plataforma.

¿Qué rol tendría el consejo en momentos de crisis sanitaria global y de difusión de desinformación y anti vacunas?
En esta pandemia Facebook adopta una regla en la que establece que si bien es cierto que no puede ser el guardián de lo que es verdad o mentira y por lo tanto no va a sacar la información que sea falsa, cuando esa desinformación tenga un impacto en la vida de las personas sí puede moderarlas y retirarlas de la plataforma. Ese sería un típico caso que mire el consejo. En principio uno pensaría que es fácil, pero en realidad supone un dilema.

¿Por qué?
Supongamos que sale la vacuna y hay un líder político o religioso que le dice a su comunidad que no se puede vacunar porque es un veneno enviado por los enemigos. No sabemos cuál es la incidencia de ese líder en la comunidad, tampoco si la comunidad tiene acceso o no a otra información y si es que algunas personas decidirán no vacunarse. Digamos que Facebook saca la información y este caso llega al consejo. No es tan fácil porque puede que la única manera de hacerle control político a ese líder que actúa de manera irresponsable abocando a una comunidad a la muerte sea que la gente sepa que ese señor está diciendo algo contraevidente y que no tiene sustento científico. Entonces mostrarlo puede ser muy importante para hacer control político.

¿Cómo los resolverían?
Son dilemas que se resuelven con estándares de derecho internacional de los derechos humanos. Habría que aplicar lo que se llama el juicio de proporcionalidad que existe y se usa hace 50 años para dirimir conflictos entre derechos, pero no son casos fáciles.

Facebook crea un organismo independiente que decidirá qué ven sus usuarios
Una premio Nobel de la Paz, una ex primera ministra danesa y un exdirector del ‘Guardian’, entre los miembros del nuevo consejo asesor que ayudará a moderar contenido en la red
Por: Jordi Pérez Colomé
Facebook ha anunciado finalmente la formación de un nuevo organismo que moderará contenidos, una instancia independiente a la que usuarios y la misma compañía pueden recurrir para que decida sobre publicaciones que afectan a la libertad de expresión y a los derechos humanos. Mark Zuckerberg, fundador de la compañía, anunció en 2018 su intención de crear una entidad al margen de la red social para moderar los contenidos más polémicos. El resultado es un consejo formado de momento por 20 personalidades de todo el mundo que seleccionará y ponderará sobre los límites globales de la libertad de expresión. Sus decisiones serán transparentes y vinculantes para la red, siempre que no incumplan leyes locales. Los contenidos susceptibles de ser moderados serán de Facebook e Instagram. El consejo no tendrá, al menos por ahora, capacidad sobre WhatsApp, otra plataforma de la compañía.

La nueva entidad depende de una organización ajena a la empresa, aunque ha sido creada por la matriz con una donación irrevocable de 130 millones de dólares (más de 120 millones de euros). Los miembros del consejo, formado por 10 mujeres y 10 hombres, ni son empleados de Facebook ni pueden ser despedidos por Zuckerberg. Este miércoles se ha anunciado la composición de este órgano, entre los que figuran personalidades como la Nobel de la Paz en 2011, la yemení Tawakul Kerman; la ex primera ministra danesa Helle Thorning-Schmidt o el director del diario The Guardian durante dos décadas, Alan Rusbridger. La única hispanohablante es la abogada colombiana Catalina Botero-Marino, decana de la Facultad de Derecho de la Universidad de Los Andes y relatora entre 2008 y 2014 para la libertad de expresión en la Organización de Estados Americanos.

El nombre oficial es consejo asesor de contenido u oversight board y sus miembros son, sobre todo, perfiles vinculados al mundo del derecho, el activismo digital y los medios de comunicación. En total serán 40, el doble de los actuales, aunque el proceso de selección se alargará hasta 2021.

El órgano tiene cuatro copresidentes, que son los que se han encargado, junto a Facebook, de reclutar a los otros 16 miembros. Junto a Botero-Marino y Thorning-Schmidt, los otros dos copresidentes serán los estadounidenses Jamal Greene, catedrático de la Universidad de Columbia, y Michael McConnell, ex juez federal y ahora catedrático en la Universidad de Stanford.

"Supone un cambio fundamental a cómo se toman las decisiones difíciles en Facebook", ha dicho Brent Harris, director de Asuntos Globales de Facebook, en una rueda de prensa con periodistas de todo el mundo a la que ha asistido EL PAÍS y en la que han participado los cuatro copresidentes y Thomas Hughes, director administrativo del consejo. Aunque su fundación ya es oficial, no empezará a oír casos hasta dentro de unos meses. En las próximas semanas, y con las dificultades añadidas por la pandemia, la institución contratará personal y decidirá el mejor modo de coordinarse y trabajar.

Otros encargados
La intención de la compañía con este consejo es subcontratar uno de los aspectos de su labor que más problemas le ha traído: los límites del derecho de libertad de expresión de un usuario, con sus contextos nacionales. Facebook ya apartó la verificación de contenidos de su labor diaria en favor de organizaciones externas que son las que asumen el juicio sobre la veracidad de un contenido. Facebook entonces solo añade el veredicto junto a la publicación y hace que esos mensajes se vean menos en las cuentas de los usuarios.

Con el nuevo tribunal supremo ocurrirá algo parecido. Las decisiones difíciles quedarán al margen de empleados de la compañía, que se aislarán de decisiones que a menudo dependen de sensibilidades ideológicas o regionales. Los veredictos razonados del tribunal, que incluye a gente muy diversa, evitarán la sensación de que un grupo de ejecutivos en Palo Alto decide qué ven, o no, cientos de millones de personas. A cambio, Facebook se ha comprometido públicamente a cumplir con las decisiones del consejo. "Si no lo hacen sería un coste reputacional muy alto", ha dicho Botero-Marino.

"No seremos la policía de Internet", ha querido aclarar McConnell. "No será algo rápido, más bien una corte de apelaciones que delibera después del hecho. El objetivo es hacer avanzar la justicia, la neutralidad", ha añadido. Serán tres los criterios que se usarán para seleccionar los casos de entre los miles que lleguen, según McConnell: que afecten a mucha gente, que tengan mucha importancia por sus consecuencias o que puedan afectar a las políticas de Facebook. "No habrá respuestas correctas. Nadie estará siempre satisfecho con nuestras decisiones", ha añadido. Como empresa privada, Facebook puede decidir sobre su contenido. "El derecho público va por otro camino", ha explicado McConnell

Al principio, el tribunal verá casos denunciados por usuarios a quienes Facebook les ha borrado contenido, pero pronto permitirá los recursos de usuarios que quieren pedir que se borre un contenido determinado. El consejo podrá decidir no solo sobre publicaciones, también sobre anuncios o grupos. Podrá también recomendar políticas a Facebook basadas en veredictos.

"Siempre he estado comprometido con la libertad de expresión y de pensamiento, pero el crecimiento de Facebook ha creado nuevas oportunidades y desafíos", dice el juez húngaro András Sajo, exvicepresidente del Tribunal Europeo de Derechos Humanos y uno de los miembros del consejo, en un mensaje de introducción en la web del nuevo organismo.

La red social del mundo
Este nuevo tribunal dará más peso a la imagen de Facebook como la gran red social del mundo. La metáfora que habla de Facebook como un país propio tiene ahora algo más de fundamento: ya tiene su poder judicial independiente. Es difícil pensar en redes competidoras que tengan la capacidad para instaurar organismos que incluyan a personalidades de tanto nivel y con capacidad de decisión real sobre los límites de la libertad de expresión en lugares con tradiciones distintas. El tribunal se centrará en el contenido de Facebook e Instagram, pero está abierto a asumir otras redes sociales, como Twitter, según ha dicho Thomas Hughes, su director administrativo.

El consejo permitirá, según Botero-Marino, que los Estados piensen dos veces si deben regular la red: "La mejor manera de mantener la arquitectura actual de Internet y evitar la regulación de estados es que las compañías que se autorregulen", ha dicho. "Este es un buen ejemplo porque incluye independencia, transparencia y diversidad."

"Las sociedades no pueden funcionar si sus ciudadanos no acuerdan qué significa evidencia, hecho y verdad", dice Rusbridger en un mensaje en la web. "Quizá nos ha llevado demasiado tiempo darnos cuenta. El consejo asesor de contenido parece ser el primer paso atrevido e imaginativo por uno de los actores principales para encontrar un modo de reconciliar la necesidad de imponer algún tipo de estándar o juicio a lo que se publica, mientras que se siga manteniendo las cosas que son maravillosas sobre redes sociales y necesarias para la libertad de expresión", añade.

A falta de la mitad de sus miembros, el consejo también tiene agujeros. Facebook no está presente en China, así que la única miembro de habla china es la taiwanesa Katharine Chen, catedrática de Comunicación en la Universidad Nacional Chengchi. O la única persona vinculada a Rusia es la camerunesa Julie Owono, directora ejecutiva de Internet Sans Frontières, que creció en el país.

Hay también cinco miembros estadounidenses por solo tres europeos (Sajo, Rusbridger y Thorning-Schmidt). Ese número de estadounidenses se debe, según Harris, a que hubo muchos candidatos que les impresionaron y que la mayoría de los casos más polémicos para la red se iniciaron en ese país. El brasileño Ronaldo Lemos, abogado especializado en tecnología, es el único latinoamericano junto a Botero-Marino. Los miembros trabajarán de momento a tiempo parcial y recibirán una compensación acorde "con los consejos del sector tecnológico", según Hughes.

La labor de este tribunal no tiene en principio que interferir con los verificadores de información, aunque es probable que haya momentos en que entre en algún tipo de conflicto. Durante la pandemia del coronavirus, España ha vivido una polémica sustancial sobre la presunta censura en redes sociales, aunque centrada sobre todo en la app de mensajería WhatsApp.
Fotos: Reuters
Fuente: Diario El País