martes, 7 de enero de 2025

Facebook, Instagram y Threads eliminan la verificación de hechos y advierten: acelerará la desaparición del periodismo

El gigante de las redes sociales Meta anunció este martes 7 de enero que cesará su programa de fact-checking (verificación digital) en Estados Unidos, un importante retroceso en sus políticas de moderación de contenido
"Vamos a eliminar a los fact-checkers (verificadores de contenido) para reemplazarlos por notas comunitarias similares a las de X (antes Twitter), empezando en Estados Unidos", escribió en las redes el fundador y director ejecutivo de Meta, Mark Zuckerberg.

Zuckerberg dijo que "A medida que hagamos la transición, eliminaremos nuestro control de verificación de datos, dejaremos de degradar el contenido verificado y, en lugar de superponer advertencias intersticiales en pantalla completa, en las que debe hacer clic antes de poder ver la publicación, usaremos una etiqueta mucho menos intrusiva que indique que hay información adicional para quienes desean verla".

Su empresa, Meta anunció el martes su decisión de abandonar sus programas de verificación de hechos de terceros en Facebook, Instagram y Threads, reemplazándolos por un nuevo sistema de moderación basado en un modelo de "Notas de la Comunidad". Este enfoque, similar al programa de voluntarios de X (antes Twitter), permitirá que los usuarios marquen públicamente el contenido que consideran incorrecto o engañoso.

Joel Kaplan, recientemente nombrado director de asuntos globales de Meta, explicó en una entrada de blog que este cambio busca fomentar un debate más abierto en las plataformas de la empresa. Inicialmente, el nuevo sistema de moderación se implementará en los Estados Unidos.

Un enfoque hacia la libertad de expresión
Kaplan defendió la medida como una forma de "permitir una mayor libertad de expresión", eliminando algunas restricciones sobre temas que forman parte del discurso dominante, y enfocando la moderación en infracciones ilegales y de alta gravedad. Sin embargo, no detalló qué temas estarían sujetos a estas nuevas normas.

En un video que acompañó la publicación, Mark Zuckerberg, CEO de Meta, afirmó que la actualización de las políticas traerá consigo un regreso de más contenido político a los feeds de los usuarios, así como publicaciones sobre temas polémicos que han alimentado las guerras culturales en EE. UU. En este sentido, Zuckerberg mencionó que se eliminarían restricciones sobre asuntos como inmigración y género, los cuales, según él, están "fuera de contacto con el discurso dominante".

Un retroceso en la moderación de contenidos
Con esta decisión, Meta da un paso atrás en cuanto a la moderación de contenidos, especialmente después de las revelaciones de 2016 sobre operaciones de influencia en sus plataformas, que afectaron las elecciones y, en algunos casos, promovieron violencia. En el contexto de las elecciones de 2024, Meta fue criticada por su enfoque de "no intervención" en temas relacionados con el proceso electoral.

Kaplan también cuestionó a los verificadores de hechos por sus "sesgos y perspectivas", que, según él, llevaron a una moderación excesiva: "Con el tiempo, se verificaron demasiados contenidos que la gente consideraría parte del debate político legítimo", escribió.

Críticas y reacciones
El anuncio de Meta ha generado duras críticas. Nina Jankowicz, exzar de la desinformación en la administración de Biden, señaló que la decisión "contribuirá a la desaparición del periodismo" y acusó a Zuckerberg de ceder ante Trump y competir con Elon Musk en una "carrera hacia el abismo". Además, grupos de activistas como el Real Facebook Oversight Board denunciaron que este cambio retrocederá en la moderación de contenidos y facilitará la propagación de propaganda de extrema derecha.

La medida también podría afectar a las organizaciones de medios que colaboran con Meta en la verificación de hechos, como Reuters y USA Today, aunque estas no han respondido a los comentarios.

Este cambio de estrategia ocurre en momentos en que Zuckerberg ha estado haciendo esfuerzos para reconciliarse con el presidente electo de Estados Unidos, Donald Trump, que incluyen una donación de un millón de dólares a su fondo de investidura. El republicano asumirá en la Casa Blanca el 20 de enero. La Agence France-Presse (AFP) trabaja actualmente con el programa de verificación de contenidos de Facebook en 26 idiomas. Facebook paga para usar las verificaciones de unas 80 organizaciones a nivel global en su plataforma, así como en Whatsapp y en Instagram.

¿Un cambio de rumbo en la moderación?
En lo que algunos interpretan como un intento de eliminar la parcialidad, Zuckerberg anunció que el equipo de confianza y seguridad de Meta se trasladará de California a Texas, una ubicación que también alberga la sede de X. "Creemos que esto ayudará a generar confianza para hacer este trabajo en lugares donde hay menos preocupación por la parcialidad de nuestros equipos", declaró Zuckerberg.

Aunque Meta defiende este cambio como una forma de eliminar la parcialidad y promover un debate más libre, los detractores señalan que esta estrategia puede tener efectos perjudiciales en la lucha contra la desinformación. A medida que otras plataformas, como BlueSky, consideran adoptar enfoques similares, el futuro de la moderación de contenidos en las redes sociales se presenta cada vez más incierto.

Este cambio en la política de Meta ocurre en medio de un contexto político y social tenso, con Zuckerberg haciendo declaraciones sobre la censura y defendiendo la libertad de expresión frente a los legisladores en Europa y América Latina.

El futuro de la moderación propuesto por Meta parece incierto, con esta medida abre un nuevo capítulo en la gestión de contenidos, con implicaciones significativas para el periodismo, la libertad de expresión y la desinformación.

En 2021 Facebook anunció a su comunidad: 
Para combatir la difusión de información errónea y proporcionar a las personas información más confiable, Facebook está asociado con verificadores de datos independientes, certificados por la organización imparcial Fact-Checking Network (IFCN). Dado que creemos que una empresa privada como Facebook no debería ser la dueña absoluta de la verdad, recurrimos a verificadores de datos para que identifiquen, revisen y califiquen posible información errónea en Facebook, Instagram y WhatsApp. Ese trabajo nos permite adoptar medidas y reducir la difusión de contenido problemático en nuestras apps.

Desde 2016, el programa de verificación de datos no dejó de crecer, y ahora incluye más de 80 organizaciones que trabajan en más de 60 idiomas en todo el mundo. El propósito del programa es ocuparse de la información errónea viralizada, es decir, afirmaciones que probablemente son falsas, en especial aquellas con potencial de engañar o provocar daños.

Nuestro enfoque respecto de la verificación de datos
Facebook y los verificadores de datos trabajan en conjunto de tres maneras:
1.- Identificación: Los verificadores de datos pueden identificar información engañosa sobre la base de sus propios informes. Además, Facebook pone a disposición de los verificadores de datos información potencialmente errónea mediante, por ejemplo, los comentarios de la comunidad o el proceso de detección de similitudes. Durante acontecimientos periodísticos de gran envergadura o temas del momento, cuando la inmediatez es especialmente importante, usamos la detección de palabras clave para recopilar contenido relacionado en un solo lugar, lo que facilita la búsqueda para los verificadores de datos. Por ejemplo, usamos esta función para agrupar el contenido sobre el COVID-19, elecciones globales, desastres naturales, conflictos y otros temas.
 
2.- Revisión: Los verificadores de datos revisan las historias y las califican según su nivel de exactitud a través de informes originales, que pueden incluir entrevistas con las fuentes principales, consultas de datos públicos y análisis de archivos multimedia, como fotos y videos. Los verificadores de datos no eliminan contenido, cuentas ni páginas de Facebook. Facebook elimina el contenido que infringe sus Normas comunitarias mediante un proceso distinto del programa de verificación de datos.
 
3.- Acción: Cada vez que los verificadores de datos califican contenido como falso, Facebook reduce de manera significativa su distribución para que menos personas lo vean. Notificamos a las personas que previamente compartieron ese contenido o intentan divulgarlo que la información es falsa. Luego, aplicamos una etiqueta de advertencia que lleva al artículo del verificador de datos en el que se refuta la veracidad de la información con un reporte original. También usamos inteligencia artificial para facilitar la tarea de los verificadores de datos mediante la aplicación de etiquetas de advertencia a afirmaciones falsas duplicadas y la reducción de su distribución.
 
Sabemos que este programa funciona y las personas consideran que es valioso ver las pantallas de advertencia que aplicamos al contenido luego de recibir la calificación de un socio de verificación de datos. Hicimos un sondeo entre las personas que vieron estas pantallas de advertencia en plataforma y descubrimos que el 74% considera que visualizan la cantidad adecuada o están dispuestas a ver más etiquetas de información falsa, mientras que el 63% piensa que se aplicaron de forma razonable.

Nuestro enfoque respecto de la integridad
El programa de verificación de datos es una parte del enfoque tripartito de Facebook, mediante el cual se eliminan y reducen los contenidos problemáticos en la familia de apps de Facebook, y también se informa a las personas acerca de ellos.
Eliminación: Si detectamos contenido que infringe las Normas comunitarias y las Políticas de publicidad de Facebook, como lenguaje que incita al odio, cuentas falsas y contenido relacionado con terrorismo, lo eliminamos de nuestras plataformas para garantizar la seguridad, la autenticidad, la privacidad y la dignidad.

Reducción: Queremos lograr un equilibrio entre permitir que las personas tengan una voz y promover un entorno auténtico. Si nuestros socios de verificación de datos identifican información errónea, disminuimos su distribución en la sección de noticias y otros espacios.

Información: Aplicamos rigurosas etiquetas y notificaciones de advertencia en el contenido verificado para que las personas puedan ver las conclusiones a las que llegaron nuestros socios y decidir por sí mismas qué leer, en qué confiar y qué compartir.
Foto: Justin Sullivan/Getty Images
Fuentes: Agencia AFP, EFE y Wired

Otras Señales

Quizás también le interese: