El gigante de las redes sociales Meta anunció este martes 7 de enero que cesará su programa de fact-checking (verificación digital) en Estados Unidos, un importante retroceso en sus políticas de moderación de contenido"Vamos a eliminar a los fact-checkers (verificadores de contenido) para reemplazarlos por notas comunitarias similares a las de X (antes Twitter), empezando en Estados Unidos", escribió en las redes el fundador y director ejecutivo de Meta, Mark Zuckerberg.
Zuckerberg dijo que "A medida que hagamos la transición, eliminaremos nuestro control de verificación de datos, dejaremos de degradar el contenido verificado y, en lugar de superponer advertencias intersticiales en pantalla completa, en las que debe hacer clic antes de poder ver la publicación, usaremos una etiqueta mucho menos intrusiva que indique que hay información adicional para quienes desean verla".
Su empresa, Meta anunció el martes su decisión de abandonar sus programas de verificación de hechos de terceros en Facebook, Instagram y Threads, reemplazándolos por un nuevo sistema de moderación basado en un modelo de "Notas de la Comunidad". Este enfoque, similar al programa de voluntarios de X (antes Twitter), permitirá que los usuarios marquen públicamente el contenido que consideran incorrecto o engañoso.
Joel Kaplan, recientemente nombrado director de asuntos globales de Meta, explicó en una entrada de blog que este cambio busca fomentar un debate más abierto en las plataformas de la empresa. Inicialmente, el nuevo sistema de moderación se implementará en los Estados Unidos.
Un enfoque hacia la libertad de expresiónKaplan defendió la medida como una forma de "permitir una mayor libertad de expresión", eliminando algunas restricciones sobre temas que forman parte del discurso dominante, y enfocando la moderación en infracciones ilegales y de alta gravedad. Sin embargo, no detalló qué temas estarían sujetos a estas nuevas normas.
En un video que acompañó la publicación, Mark Zuckerberg, CEO de Meta, afirmó que la actualización de las políticas traerá consigo un regreso de más contenido político a los feeds de los usuarios, así como publicaciones sobre temas polémicos que han alimentado las guerras culturales en EE. UU. En este sentido, Zuckerberg mencionó que se eliminarían restricciones sobre asuntos como inmigración y género, los cuales, según él, están "fuera de contacto con el discurso dominante".
Un retroceso en la moderación de contenidosCon esta decisión, Meta da un paso atrás en cuanto a la moderación de contenidos, especialmente después de las revelaciones de 2016 sobre operaciones de influencia en sus plataformas, que afectaron las elecciones y, en algunos casos, promovieron violencia. En el contexto de las elecciones de 2024, Meta fue criticada por su enfoque de "no intervención" en temas relacionados con el proceso electoral.
Kaplan también cuestionó a los verificadores de hechos por sus "sesgos y perspectivas", que, según él, llevaron a una moderación excesiva: "Con el tiempo, se verificaron demasiados contenidos que la gente consideraría parte del debate político legítimo", escribió.
Críticas y reaccionesEl anuncio de Meta ha generado duras críticas. Nina Jankowicz, exzar de la desinformación en la administración de Biden, señaló que la decisión
"contribuirá a la desaparición del periodismo" y acusó a Zuckerberg de ceder ante Trump y competir con Elon Musk en una "carrera hacia el abismo". Además, grupos de activistas como el Real Facebook Oversight Board denunciaron que este cambio retrocederá en la moderación de contenidos y facilitará la propagación de propaganda de extrema derecha.
La medida también podría afectar a las organizaciones de medios que colaboran con Meta en la verificación de hechos, como Reuters y USA Today, aunque estas no han respondido a los comentarios.
Este cambio de estrategia ocurre en momentos en que Zuckerberg ha estado haciendo esfuerzos para reconciliarse con el presidente electo de Estados Unidos, Donald Trump, que incluyen una donación de un millón de dólares a su fondo de investidura. El republicano asumirá en la Casa Blanca el 20 de enero. La Agence France-Presse (AFP) trabaja actualmente con el programa de verificación de contenidos de Facebook en 26 idiomas. Facebook paga para usar las verificaciones de unas 80 organizaciones a nivel global en su plataforma, así como en Whatsapp y en Instagram.
¿Un cambio de rumbo en la moderación?
En lo que algunos interpretan como un intento de eliminar la parcialidad, Zuckerberg anunció que el equipo de confianza y seguridad de Meta se trasladará de California a Texas, una ubicación que también alberga la sede de X. "Creemos que esto ayudará a generar confianza para hacer este trabajo en lugares donde hay menos preocupación por la parcialidad de nuestros equipos", declaró Zuckerberg.
Aunque Meta defiende este cambio como una forma de eliminar la parcialidad y promover un debate más libre, los detractores señalan que esta estrategia puede tener efectos perjudiciales en la lucha contra la desinformación. A medida que otras plataformas, como BlueSky, consideran adoptar enfoques similares, el futuro de la moderación de contenidos en las redes sociales se presenta cada vez más incierto.
Este cambio en la política de Meta ocurre en medio de un contexto político y social tenso, con Zuckerberg haciendo declaraciones sobre la censura y defendiendo la libertad de expresión frente a los legisladores en Europa y América Latina.
El futuro de la moderación propuesto por Meta parece incierto, con esta medida abre un nuevo capítulo en la gestión de contenidos, con implicaciones significativas para el periodismo, la libertad de expresión y la desinformación.
Preocupa a la SIP decisión de Meta de eliminar programa de verificaciónLa Sociedad Interamericana de Prensa (SIP) manifestó su profunda preocupación ante el reciente anuncio del gigante tecnológico Meta de eliminar su programa de verificación de datos y reemplazarlo por un sistema de «notas comunitarias». Según la organización internacional, la medida anunciada por la empresa matriz de plataformas como Facebook, Instagram y WhatsApp representa un grave retroceso en la lucha contra la desinformación y contradice principios fundamentales recogidos en la Declaración de Salta II de la SIP, sobre principios de libertad de expresión en la era digital.
El principio 11 de la
Declaración de Salta II plantea que "la diseminación maliciosa o deliberada de desinformación por parte de actores estatales o privados afecta la confianza pública y menoscaba procesos democráticos. Además de las responsabilidades de quienes emitan, distribuyan, amplifiquen o moneticen estos mensajes, se requiere adoptar políticas de alfabetización noticiosa y digital sobre el impacto de las tecnologías".
Para la SIP, la decisión de Meta de resignar su responsabilidad directa en la verificación de información y delegarla exclusivamente en usuarios anónimos debilita los esfuerzos necesarios para combatir la propagación de noticias falsas, un problema que tiene impacto directo en la distorsión del debate público y, en consecuencia, afecta profundamente la calidad del sistema democrático.
La entidad que agrupa a más de 1.300 medios de comunicación de todo el continente aludió asimismo al principio 14 de la Declaración de Salta II, el cual establece: «Intermediarios tecnológicos así como desarrolladores de sistemas de IA y de otras tecnologías digitales deben respetar los derechos humanos en el desarrollo de sus actividades, fomentar la libertad de expresión y resistir presiones de gobiernos y grupos de poder. Deben implementar políticas de autorregulación para prevenir en sus plataformas maniobras de desinformación y la vulneración de derechos de terceros. Las normas de moderación y curación de contenidos deben ser claras y transparentes, permitir el ejercicio de los derechos de denuncia y revisión, y adecuarse a estándares internacionales de derechos humanos.
Para la SIP, el anuncio del CEO de Meta, Marck Zuckerberg, de reemplazar el control de desinformación por un modelo de «notas comunitarias» similar al utilizado por la plataforma X (anteriormente Twitter) carece de la transparencia y rigurosidad necesarias para garantizar que las normas de moderación y curación de contenidos se ajusten a los estándares internacionales de derechos humanos. Por ello, este cambio no solo pone en riesgo los derechos de los usuarios, sino que también fomenta un entorno digital susceptible a la manipulación y el abuso. Genera, además, un precedente peligroso si otras plataformas adoptan políticas similares y, además, porque puede incentivar regulaciones estatales que en general se traducen en censura previa, violatoria de normas internacionales.
La decisión de Meta se suma a otras previas de la misma empresa en las que desjerarquizó o penalizó los contenidos periodísticos generados por medios profesionales, el principal antídoto contra la desinformación. Fue lo que sucedió con el bloqueo de las noticias en sus productos en Canadá tras la sanción de la ley de protección del copyright en ese país; con la modificación de sus productos para minimizar las noticias verificadas, y con la eliminación de sus programas de impulso al periodismo en el ecosistema digital.
"La desinformación es una de las principales amenazas para la confianza pública y la estabilidad democrática. La decisión de Meta de eliminar la verificación profesional en sus plataformas debilita un elemento crucial en la lucha contra este problema y deja un vacío que difícilmente podrá ser llenado por un modelo basado en usuarios anónimos", declaró José Roberto Dutriz, presidente de la SIP y CEO y director de La Prensa Gráfica, de El Salvador.
Por su parte, Carlos Jornet, segundo vicepresidente de la organización y presidente de la Comisión de Libertad de Prensa e Información, subrayó: «Esta medida contradice los principios fundamentales de la Declaración de Salta II, que exige políticas claras, transparentes y basadas en estándares internacionales para combatir la desinformación». Jornet, director periodístico del diario La Voz del Interior, de Córdoba, Argentina, afirmó: "Meta está enviando una señal equivocada en un momento en el que el compromiso con la libertad de expresión y los derechos humanos debe ser fortalecido, no debilitado".
La
Declaración de Salta II fue
aprobada en el cierre de la Asamblea General de Córdoba, el 20 de octubre pasado. La actualización adapta el texto original a nuevos retos que enfrenta la libertad de prensa en el nuevo entorno digital.
Entre los temas clave que aborda esta nueva versión destacan la inteligencia artificial; la opacidad de los algoritmos, que puede fomentar la polarización y la difusión de desinformación, minando así el debate público; las disrupciones comerciales generadas por las grandes empresas tecnológicas, que concentran el mercado de la publicidad, y el derecho de propiedad intelectual, cuyo respeto es fundamental para la viabilidad económica del periodismo.
El proceso de actualización de la Declaración de Salta fue un esfuerzo colectivo que involucró una amplia consulta, mediante la convocatoria a más de 150 personas y organizaciones representantes de medios, empresas tecnológicas y de comunicación internacionales, centros de pensamiento, organizaciones intergubernamentales de derechos humanos, la sociedad civil, académicos, periodistas y abogados, para que aportaran insumos.
Busaniche: "Es una medida más política que técnica"
Por: Laura Rodríguez, Radio Provincia
La directora de la Fundación Vía Libre alertó que la iniciativa evidencia "la vocación de alinearse con la nueva administración de Trump".
Meta, la empresa de Mark Zuckerberg sigue los pasos de la red social X y cierra el programa de verificación de datos personales. En el anuncio, el CEO de la empresa explicó que los moderadores eran "demasiado tendenciosos políticamente y era hora de volver a nuestras raíces en torno a la libertad de expresión".
En contacto con "Naplam" por Radio Provincia, Beatriz Busaniche, directora de la Fundación Vía Libre aseguró que el anuncio de Meta se inscribe en "un cambio de época" pero es "una medida más política que técnica" y en ese contexto "habrá que ver qué pasa con las organizaciones de chequeadores de datos, que surgieron a la luz de la problemática de las noticias falsas, en los últimos 8 años".
Además resaltó que esta medida evidencia "una vocación política de alinearse con la nueva administración de Donald Trump y con esta tendencia de reivindicar ciertos aspectos de la libertad de expresión". Y analizó que en este marco, "funciona el viejo mantra de que si te dice que no les interesa la política es de derecha".
La entrevistada recordó que, en 2016, Zuckerberg ya se sumó al cambio de época "cuando montó todo el sistema de chequeos". Destacó que lo que sí es "llamativo es que hoy lo haga copiando el sistema de Elon Musk en Twitter" y puso en duda que esta medida mejore la libertad de expresión porque "los sistemas de chequeado de información y la discusión de las noticias falsas" están directamente relacionados con "quién modera y edita los contenidos de los usuarios en las redes".
Seguido ponderó que en el video, el CEO de Meta reconoció el fracaso de los intentos que se hacen desde 2016 de lograr "mayor control sobre la circulación de información y la moderación de discursos violentos, racistas y discriminatorios".
"Tiene algo de razón" admitió Busaniche y continuó: "es destacable que una empresa diga que les fue mal en un proyecto que empezó hace unos años"; al tiempo que agregó que con esta medida "se rompe la alianza" que le red social tenía con el "periodismo de chequeo de datos por lo menos en Estados Unidos" y subrayó que aun así "habrá lugares donde la moderación de los contenidos van a tener que seguir estando" como es el caso de Alemania donde hay cierto tipo de discursos que son ilegales.
Por otra parte, explicó que "todas las regulaciones de mercado o de las sociedades de bolsa, están muy bien y son indispensables" porque protegen a los usuarios ante la filtración de sus datos personales. Pero "no sé si es posible aplicar una regulación similar en el marco de la libertad de expresión" porque antes de definir un marco regulatorio hay que "definir quién construye el proceso regulatorio".
En ese marco, Busaniche recordó que la regulación de Facebook, que se reemplaza con la medida anunciada, "era absolutamente privada, opaca y ajena a la voluntad popular, porque las personas usuarias de Meta no tenían ni voz ni voto sobre cómo se regulaba el discurso. Y en consecuencia se dieron de baja campañas y perfiles en función de un algoritmo que nadie pudo escrutar jamás".
Y por ello concluyó que "sacando el tema de esta coyuntura, donde estos tipos mega millonarios se arrastran a los pies de Trump, porque claramente hay un cambio de época; el sistema de moderación del grupo Meta era una porquería ya que no se explicitaba quién acreditaba la veracidad de las afirmaciones" mientras que "el modelo de notas de la comunidad le devuelve el poder a las comunidades". Y advirtió que el riesgo de esto es que en paralelo "se vuelve verdad aquello que es popular y repentinamente si muchos consideran que la tierra es plana, súbitamente, la tierra se va a aplanar".
Es hora de redoblar los esfuerzos en lo que hacemos mejor: periodismo confiable, basado en hechos y de calidad
Por: Andrew Heslop, Executive Director Press Freedom WAN-IFRA
La decisión de Meta de eliminar la verificación de datos por parte de terceros de sus plataformas en los EE. UU. y revisar las reglas de contenido es un revés para la integridad de la información y los miles de periodistas profesionales dedicados a defenderla. También es un momento peligroso para la democracia.
Miles de millones de personas en todo el mundo reciben noticias e información a través de las plataformas de redes sociales. La verificación de datos intenta contrarrestar la información errónea y la desinformación y lleva los estándares profesionales de nuestra industria a la plaza del pueblo digital. Denunciar mentiras no es censura.
El hecho de que los sistemas de Meta no estén a la altura de la tarea de garantizar una moderación de contenido efectiva no debería ser un reflejo de los periodistas empleados por organizaciones de terceros para verificar los datos o del importante papel que desempeñan en el ecosistema en línea más amplio.
Con el objetivo de promover la libertad de expresión, la decisión de Meta corre el riesgo de anular los estándares legales internacionales existentes que rigen la libertad de expresión y la legislación emergente sobre contenido dañino. Meta parece estar priorizando el lucro, el poder, la conspiración y el odio por sobre la precisión, los hechos y la rendición de cuentas, los fundamentos que distinguen al periodismo profesional.
Nuestras salas de redacción se guían por estándares profesionales, ética y códigos de conducta que defienden las normas legales. Todos los días, los periodistas exponen su interpretación de estos al escrutinio público. Como industria, no somos perfectos; se cometen errores. Pero rectificamos, ajustamos, fortalecemos y hacemos un mejor trabajo como resultado.
Hacemos un llamado a los profesionales de la información para que mantengan los más altos estándares frente a este desafío y reafirmen los principios que nos definen. La verificación de hechos sigue siendo el núcleo del periodismo. Nuestras audiencias lo exigen; la democracia depende de ello.
En 2021 Facebook anunció a su comunidad:
Para combatir la difusión de información errónea y proporcionar a las personas información más confiable, Facebook está asociado con verificadores de datos independientes, certificados por la organización imparcial Fact-Checking Network (IFCN). Dado que creemos que una empresa privada como Facebook no debería ser la dueña absoluta de la verdad, recurrimos a verificadores de datos para que identifiquen, revisen y califiquen posible información errónea en Facebook, Instagram y WhatsApp. Ese trabajo nos permite adoptar medidas y reducir la difusión de contenido problemático en nuestras apps.
Desde 2016, el programa de verificación de datos no dejó de crecer, y ahora incluye más de 80 organizaciones que trabajan en más de 60 idiomas en todo el mundo. El propósito del programa es ocuparse de la información errónea viralizada, es decir, afirmaciones que probablemente son falsas, en especial aquellas con potencial de engañar o provocar daños.
Nuestro enfoque respecto de la verificación de datos
Facebook y los verificadores de datos trabajan en conjunto de tres maneras:
1.- Identificación: Los verificadores de datos pueden identificar información engañosa sobre la base de sus propios informes. Además, Facebook pone a disposición de los verificadores de datos información potencialmente errónea mediante, por ejemplo, los comentarios de la comunidad o el proceso de detección de similitudes. Durante acontecimientos periodísticos de gran envergadura o temas del momento, cuando la inmediatez es especialmente importante, usamos la detección de palabras clave para recopilar contenido relacionado en un solo lugar, lo que facilita la búsqueda para los verificadores de datos. Por ejemplo, usamos esta función para agrupar el contenido sobre el COVID-19, elecciones globales, desastres naturales, conflictos y otros temas.
2.- Revisión: Los verificadores de datos revisan las historias y las califican según su nivel de exactitud a través de informes originales, que pueden incluir entrevistas con las fuentes principales, consultas de datos públicos y análisis de archivos multimedia, como fotos y videos. Los verificadores de datos no eliminan contenido, cuentas ni páginas de Facebook. Facebook elimina el contenido que infringe sus Normas comunitarias mediante un proceso distinto del programa de verificación de datos. 3.- Acción: Cada vez que los verificadores de datos califican contenido como falso, Facebook reduce de manera significativa su distribución para que menos personas lo vean. Notificamos a las personas que previamente compartieron ese contenido o intentan divulgarlo que la información es falsa. Luego, aplicamos una etiqueta de advertencia que lleva al artículo del verificador de datos en el que se refuta la veracidad de la información con un reporte original.
También usamos inteligencia artificial para facilitar la tarea de los verificadores de datos mediante la aplicación de etiquetas de advertencia a afirmaciones falsas duplicadas y la reducción de su distribución.
Sabemos que este programa funciona y las personas consideran que es valioso ver las pantallas de advertencia que aplicamos al contenido luego de recibir la calificación de un socio de verificación de datos. Hicimos un sondeo entre las personas que vieron estas pantallas de advertencia en plataforma y descubrimos que el 74% considera que visualizan la cantidad adecuada o están dispuestas a ver más etiquetas de información falsa, mientras que el 63% piensa que se aplicaron de forma razonable.
Nuestro enfoque respecto de la integridad
El programa de verificación de datos es una parte del enfoque tripartito de Facebook, mediante el cual se eliminan y reducen los contenidos problemáticos en la familia de apps de Facebook, y también se informa a las personas acerca de ellos.
Eliminación: Si detectamos contenido que infringe las Normas comunitarias y las Políticas de publicidad de Facebook, como lenguaje que incita al odio, cuentas falsas y contenido relacionado con terrorismo, lo eliminamos de nuestras plataformas para garantizar la seguridad, la autenticidad, la privacidad y la dignidad.
Reducción: Queremos lograr un equilibrio entre permitir que las personas tengan una voz y promover un entorno auténtico. Si nuestros socios de verificación de datos identifican información errónea, disminuimos su distribución en la sección de noticias y otros espacios.
Información: Aplicamos rigurosas etiquetas y notificaciones de advertencia en el contenido verificado para que las personas puedan ver las conclusiones a las que llegaron nuestros socios y decidir por sí mismas qué leer, en qué confiar y qué compartir.
Foto: Justin Sullivan/Getty Images
Fuentes: Agencia AFP, EFE, Radio Provincia, SIP y Wired