miércoles, 1 de julio de 2020

Facebook niega beneficiarse del odio

Nick Clegg explica la postura de la empresa: “Miles de millones de personas usan Facebook e Instagram porque tienen buenas experiencias en nuestras apps”, explica
Por: Nick Clegg, vicepresidente de asuntos públicos y comunicaciones de Facebook
La polarización y las tensiones que atraviesan a la sociedad se reflejan en las redes sociales. Y plataformas como Facebook son el espejo de esas discusiones: con más de 3 mil millones de personas usando las aplicaciones de Facebook mensualmente, todo lo bueno, lo malo y lo feo de nuestras sociedades encontrará un lugar para ser expresado. Eso pone una gran responsabilidad en Facebook y en otras compañías de redes sociales para decidir qué contenido es aceptable.

Facebook ha recibido muchas críticas en las últimas semanas por su decisión de permitir que publicaciones controvertidas del presidente estadounidense, Donald Trump, se mantengan en la plataforma, y también fue cuestionada por personas y empresas que se anuncian en nuestros servicios sobre cómo abordamos el discurso de odio. Quiero ser claro: Facebook no se beneficia del odio. Miles de millones de personas usan Facebook e Instagram porque tienen buenas experiencias en nuestras apps. Nuestra comunidad no quiere ver contenido de odio, nuestros anunciantes no quieren verlo, y nosotros tampoco. No hay incentivo alguno para que hagamos otra cosa que no sea eliminarlo.

Más de 100 mil millones de mensajes son publicados diariamente en nuestros servicios. Somos nosotros hablando, compartiendo nuestras vidas, nuestras opiniones, nuestras esperanzas y nuestras experiencias. En esas miles de millones de interacciones, una pequeña fracción es contenido de odio. Cuando encontramos publicaciones de este tipo en Facebook e Instagram, tenemos tolerancia cero y las removemos. Cuando un contenido no clasifica para ser tratado como discurso de odio, ni es considerado dentro de otras políticas destinadas a prevenir daños o la supresión del voto, nos inclinamos por la libre expresión, porque en última instancia, la mejor manera de contrarrestar el discurso ofensivo, divisivo y dañino es con más conversación. Exponerlo a la luz es mejor que esconderlo en las sombras.

Desafortunadamente, la tolerancia cero no significa cero casos. Con el volumen de contenido que se publica diariamente en nuestras plataformas, erradicar el odio es como buscar una aguja en un pajar. Invertimos miles de millones de dólares anuales en recursos humanos y tecnología para mantener nuestra plataforma segura. Hemos triplicado nuestro equipo de seguridad hasta llegar a las actuales 35 mil personas. Somos pioneros en la aplicación de inteligencia artificial para eliminar contenido de odio a escala.

Y hemos progresado. Un informe reciente de la Comisión Europea reveló que Facebook revisó el 95,7% de los reportes de discurso de odio en menos de 24 horas, más rápido que YouTube y Twitter. El mes pasado, informamos que removimos casi el 90% del discurso de odio que encontramos antes de que alguien lo reportara. Esto representó un aumento del 24% en nuestra eficacia en poco más de dos años. Actuamos sobre 9,6 millones de piezas de contenido en el primer trimestre del 2020, frente a los 5,7 millones del trimestre anterior. Y el 99% del contenido de ISIS y Al Qaeda que eliminamos es retirado antes de que alguien lo reporte.

Estamos mejorando, pero no somos complacientes. Es por eso que anunciamos recientemente nuevas políticas y productos para asegurar que todos puedan mantenerse seguros, informados y, en última instancia, puedan usar su voz donde más importa: el voto. Esto incluye el despliegue de la mayor campaña de información electoral en la historia de los EEUU, una iniciativa que busca registrar a cuatro millones de votantes. También, implementamos actualizaciones a las políticas diseñadas para combatir la supresión del voto y el discurso de odio. Muchos de estos cambios son el resultado directo de contribuciones de la comunidad de derechos civiles. Seguiremos trabajando con ellos y junto a otros expertos para ajustar nuestras políticas y abordar nuevos riesgos a medida que vayan surgiendo.

Es comprensible y necesario hacer foco en el discurso de odio y en otros tipos de contenido dañino en las redes sociales, pero vale la pena recordar que la gran mayoría de las conversaciones que suceden son positivas.

Lo vimos cuando se desató la pandemia de coronavirus. Miles de millones de personas usaron Facebook para mantenerse conectadas cuando estaban físicamente separadas. Abuelos y nietos, hermanos y hermanas, amigos y vecinos. Y más que eso, las personas se unieron para ayudarse mutuamente. Se formaron miles y miles de grupos locales, y millones de personas se organizaron para ayudar a los más vulnerables en sus comunidades. Otras, para celebrar y apoyar a los trabajadores de la salud. Y cuando las empresas tuvieron que cerrar sus puertas al público, para muchos, Facebook fue su salvavidas. Más de 160 millones de negocios usan las herramientas gratuitas de Facebook para llegar a los clientes, y muchos las emplearon para mantenerse a flote, lo que ayudó a preservar empleos y el sustento de muchas personas.

Es importante destacar que Facebook contribuyó para que las personas obtuvieran información precisa y confiable sobre temas sanitarios. Orientamos a más de 2 mil millones de personas en Facebook e Instagram para que accedan a la información de la Organización Mundial de la Salud y de otras autoridades de salud pública. Y más de 350 millones de personas hicieron clic para ver ese contenido.

Y vale la pena recordar que cuando las cosas más oscuras están sucediendo en nuestra sociedad, las redes sociales les brindan a las personas una herramienta para echar luz. Para mostrarle al mundo lo que está sucediendo; organizarse contra el odio y unirse; y para que millones en todo el mundo expresen su solidaridad. Lo hemos visto en innumerables ocasiones, y lo estamos viendo ahora mismo con el movimiento Black Lives Matter.

Es posible que nunca podamos erradicar el odio por completo en Facebook, pero estamos mejorando constantemente en la tarea de detenerlo.

Boicot de anunciantes en Facebook empieza a sacudir a los inversores
Por: Kaya Yurieff
Tras varios días de ignorar en gran medida las noticias sobre un creciente boicot de los anunciantes de Facebook, ahora parece que los inversores están prestando atención.

Las acciones de Facebook cayeron casi un 3% durante las primeras operaciones de este lunes ––antes de recuperarse––, luego de que grandes marcas como Starbucks, Coca-Cola y Hershey’s informaran que suspenderían su gasto en la plataforma de redes sociales por preocupaciones acerca del manejo de desinformación y discursos de odio.

La caída se produce después de que las acciones de Facebook cerraran el viernes un 8% a la baja, por las noticias de que Unilever, la compañía masiva de artículos para el hogar, detendría su publicidad en Facebook y Twitter durante el resto del año. (Las acciones de Twitter también experimentaron una disminución similar el viernes).

Los movimientos en las acciones resaltan una nueva incertidumbre sobre cuánto podría el boicot afectar la máquina de ventas de anuncios de Facebook. Gran parte de los ingresos publicitarios de Facebook provienen de pequeñas y medianas empresas, lo que potencialmente lo aislaría de un déficit de ingresos excesivo a raíz del boicot. Pero algunas marcas como Starbucks ocupan un lugar destacado en la lista de los que más gastan en publicidad en Facebook, según las estimaciones de Pathmatics, una firma de inteligencia de mercado.

“Facebook necesita abordar este problema de manera rápida y efectiva para evitar que los retiros publicitarios puedan salirse potencialmente de control”, advirtió Bradley Gastwirth, estratega jefe de tecnología de Wedbush Securities.

Una coalición de derechos civiles ––que incluye la Liga Antidifamación (ADL, por sus siglas en inglés) y la Asociación Nacional para el Progreso de las Personas de Color (NAACP, por sus siglas en inglés)–– lanzó la campaña #StopHateforProfit a principios de este mes, la cual pide a las grandes corporaciones detener la publicidad en Facebook durante el mes de julio, debido a la “falla reiterada” de la plataforma “para abordar de manera significativa la gran proliferación de odio”.

Las marcas de ropa para exteriores, incluidas The North Face y REI, estuvieron entre las primeras en unirse a la campaña de presión. Pero desde entonces, una larga lista de nombres reconocidos ––como Honda, Levi Strauss, Verizon y, desde este lunes, Denny’s–– han seguido su ejemplo. Algunas compañías, como Starbucks y Unilever, optaron por ir más allá del alcance de la campaña al repensar el gasto en las plataformas de redes sociales, no solo en Facebook.

En el programa “Reliable Sources” de CNN este domingo, el vicepresidente de asuntos públicos de Facebook, Nick Clegg, rechazó la premisa del boicot y dijo que el gigante de las redes sociales no se beneficia de la proliferación del discurso de odio en su plataforma.

“No tenemos ningún tipo de incentivo para tolerar el discurso de odio”, le dijo Clegg a Brian Stelter de CNN. “No nos gusta, a nuestros usuarios no les gusta, a los anunciantes, comprensiblemente, no les gusta… Nos beneficiamos de la conexión humana positiva, no del odio”, insistió.

La semana pasada, Facebook realizó una llamada con especialistas en mercadeo reconociendo un “déficit de confianza”, y envió múltiples correos electrónicos a los anunciantes en un esfuerzo por frenar el boicot. El viernes, el presidente ejecutivo Mark Zuckerberg se comprometió a prohibir los anuncios de odio y etiquetar las publicaciones controvertidas de los políticos.

Nicole Perrin, analista principal de la firma de investigación eMarketer, dijo que será difícil “analizar” los efectos del boicot desde el impacto de la pandemia en los resultados de Facebook. Algunas marcas, explicó, ya habían suspendido el gasto publicitario debido a la pandemia. Mientras tanto, otros anunciantes intervinieron para llenar el vacío y aprovechar precios más baratos.
Brian Fung, de CNN, contribuyó a este informe
Fuente: CNN

Otras Señales

Quizás también le interese: