Por: Sherisse Pham
Facebook se está enfrentando a muchas críticas por la manera como maneja el contenido violento y perturbador que los usuarios publican en la red.
Mientras la compañía enfrenta problemas con los videos de suicidios y asesinatos publicados en su plataforma, un reporte del diario británico The Guardian da nuevas ideas sobre el incómodo rol que ahora juega el gigante de las redes sociales como regulador de contenidos.
Este reporte está basado documentos filtrados que presuntamente establecen las reglas internas y las directrices que Facebook usa para revisar publicaciones que contienen violencia, discursos de odio, desnudez, lesiones propias y terrorismo. Esto resalta el problema de la compañía para censurar contenido dañino sin que sea acusado de pisotear la libertad de expresión.
The Guardian dice que los documentos fueron “suministrados a moderadores de Facebook el año pasado”.
Facebook se negó a confirmar el reporte de The Guardian, pero tampoco lo negó.
“Trabajamos duro para hacer Facebook tan seguro como sea posible mientras permitimos la libertad de expresión”, le dijo a CNNMoney en un comunicado Monika Bickert, líder de política global de manejo de la compañía.
“Esto requiere de mucha reflexión a preguntas detalladas y a menudo difíciles, y hacerlo bien es algo que nos tomamos muy en serio”, agregó.
El director ejecutivo de Facebook, Mark Zuckerberg, anunció a principios de este mes que la compañía iba a contratar a 3.000 personas más para ayudar a “revisar millones de reportes que nos llegan cada semana”.
Estos son los tres puntos principales del reporte de The Guardian:
1. Las amenazas violentas contra líderes de Estado están prohibidas
El documento instruye a los moderadores de Facebook para que borren comentarios como “alguien que le dispare a Trump”, porque como presidente de Estados Unidos está en una categoría protegida.
Sin embargo, comentarios como “romperle el cuello a esa p***, asegúrate poner toda su presión en la mitad de su garganta”, o “espero que alguien te mate”, pueden ser permitidos en el sitio porque no son tenidos en cuenta como amenazas creíbles.
Los videos de muertes violentas no son siempre borrados porque pueden ayudar a crear consciencia en temas como enfermedades mentales o crímenes de guerra, según las directrices. Por el contrario, esos videos son marcados como contenido perturbador y se esconde de la vista de los menores.
2. Las transmisiones en vivo de personas que intentan lastimarse están permitidas
Facebook permitirá a los usuarios transmitir en vivo autolesiones e intentos de suicidio porque no quiere censurar o castigar a personas que están angustiadas, según los documentos. Si esto no ayuda a la persona, el video será eliminado a menos que el incidente sea considerado como noticioso. A los moderadores se les aconseja ignorar amenazas de suicido expresadas a través de hashtags o emoticones, o cuando no sea probable que el método propuesto sea exitoso.
Facebook ha dicho en el pasado que esta en una posición única para hacer más sobre la epidemia del suicidio. En marzo anunció que estaba haciendo pruebas de la habilidad de un sistema de inteligencia artificial para identificar las publicaciones potenciales de “suicidio o daño autoinflingido” basados en patrones de reconocimiento de publicaciones que han sido marcadas anteriormente en el sitio.
La compañía dijo en un comunicado a CNNMoney que está tratando de hacer que sea más fácil para que los revisores contactar a las autoridades cuando alguien necesite ayuda. La meta, dice Facebook, es proporcionar recursos a alguien de una manera más oportuna.
3. Los desnudos son aparentemente un área gris
Los documentos muestran las nuevas directrices luego de las críticas que recibió Facebook el año pasado por borrar una icónica foto de la Guerra de Vietnam porque la niña en la foto estaba desnuda. Esa imagen ahora está permitida bajo “excepciones noticiosas”.
Fotos de “niños desnudos en el contexto del Holocausto”, sin embargo, no están permitidas en el sitio.
El arte “hecho a mano” que muestre desnudez o actividad sexual está permitida, según los documentos. Digitalmente ese tipo de arte explícito que representa la misma clase de contenido, no está permitido.
La pornografía de venganza viola los estándares de abuso de la red social y será eliminada del sitio.
Facebook define pornografía de venganza como compartir fotografías de personas desnudas o semi desnudas a personas que no quieren verlas con el fin de avergonzarlas.
Facebook se está enfrentando a muchas críticas por la manera como maneja el contenido violento y perturbador que los usuarios publican en la red.
Mientras la compañía enfrenta problemas con los videos de suicidios y asesinatos publicados en su plataforma, un reporte del diario británico The Guardian da nuevas ideas sobre el incómodo rol que ahora juega el gigante de las redes sociales como regulador de contenidos.
Este reporte está basado documentos filtrados que presuntamente establecen las reglas internas y las directrices que Facebook usa para revisar publicaciones que contienen violencia, discursos de odio, desnudez, lesiones propias y terrorismo. Esto resalta el problema de la compañía para censurar contenido dañino sin que sea acusado de pisotear la libertad de expresión.
The Guardian dice que los documentos fueron “suministrados a moderadores de Facebook el año pasado”.
Facebook se negó a confirmar el reporte de The Guardian, pero tampoco lo negó.
“Trabajamos duro para hacer Facebook tan seguro como sea posible mientras permitimos la libertad de expresión”, le dijo a CNNMoney en un comunicado Monika Bickert, líder de política global de manejo de la compañía.
“Esto requiere de mucha reflexión a preguntas detalladas y a menudo difíciles, y hacerlo bien es algo que nos tomamos muy en serio”, agregó.
El director ejecutivo de Facebook, Mark Zuckerberg, anunció a principios de este mes que la compañía iba a contratar a 3.000 personas más para ayudar a “revisar millones de reportes que nos llegan cada semana”.
Estos son los tres puntos principales del reporte de The Guardian:
1. Las amenazas violentas contra líderes de Estado están prohibidas
El documento instruye a los moderadores de Facebook para que borren comentarios como “alguien que le dispare a Trump”, porque como presidente de Estados Unidos está en una categoría protegida.
Sin embargo, comentarios como “romperle el cuello a esa p***, asegúrate poner toda su presión en la mitad de su garganta”, o “espero que alguien te mate”, pueden ser permitidos en el sitio porque no son tenidos en cuenta como amenazas creíbles.
Los videos de muertes violentas no son siempre borrados porque pueden ayudar a crear consciencia en temas como enfermedades mentales o crímenes de guerra, según las directrices. Por el contrario, esos videos son marcados como contenido perturbador y se esconde de la vista de los menores.
2. Las transmisiones en vivo de personas que intentan lastimarse están permitidas
Facebook permitirá a los usuarios transmitir en vivo autolesiones e intentos de suicidio porque no quiere censurar o castigar a personas que están angustiadas, según los documentos. Si esto no ayuda a la persona, el video será eliminado a menos que el incidente sea considerado como noticioso. A los moderadores se les aconseja ignorar amenazas de suicido expresadas a través de hashtags o emoticones, o cuando no sea probable que el método propuesto sea exitoso.
Facebook ha dicho en el pasado que esta en una posición única para hacer más sobre la epidemia del suicidio. En marzo anunció que estaba haciendo pruebas de la habilidad de un sistema de inteligencia artificial para identificar las publicaciones potenciales de “suicidio o daño autoinflingido” basados en patrones de reconocimiento de publicaciones que han sido marcadas anteriormente en el sitio.
La compañía dijo en un comunicado a CNNMoney que está tratando de hacer que sea más fácil para que los revisores contactar a las autoridades cuando alguien necesite ayuda. La meta, dice Facebook, es proporcionar recursos a alguien de una manera más oportuna.
3. Los desnudos son aparentemente un área gris
Los documentos muestran las nuevas directrices luego de las críticas que recibió Facebook el año pasado por borrar una icónica foto de la Guerra de Vietnam porque la niña en la foto estaba desnuda. Esa imagen ahora está permitida bajo “excepciones noticiosas”.
Fotos de “niños desnudos en el contexto del Holocausto”, sin embargo, no están permitidas en el sitio.
El arte “hecho a mano” que muestre desnudez o actividad sexual está permitida, según los documentos. Digitalmente ese tipo de arte explícito que representa la misma clase de contenido, no está permitido.
La pornografía de venganza viola los estándares de abuso de la red social y será eliminada del sitio.
Facebook define pornografía de venganza como compartir fotografías de personas desnudas o semi desnudas a personas que no quieren verlas con el fin de avergonzarlas.
Fuente: CNNMoney