Diario de Navarra | Facebook Se abrirá en otra página Diario de Navarra | Twitter Se abrirá en otra página Hemeroteca Edición impresa
Mi Club DN ¿Qué es? Suscríbete

La Hemeroteca
REDES SOCIALES

Las normas internas de Facebook toleran la difusión de ciertos contenidos violentos

Una filtración desvela que no elimina algunas muertes violentas, intentos de autolesión o imágenes de abusos no sexuales a menores

Mark Zuckerberg en un evento de la compañía Facebook.

Mark Zuckerberg en un evento de la compañía Facebook.

EFE (ARCHIVO)
23/05/2017 a las 06:00
Etiquetas
  • Colpisa. Madrid

Facebook, la mayor de la redes sociales, alimentada por casi 2.000 millones de usuarios de todo el planeta, había confesado en los últimos meses que era víctima de su propio éxito, que estaba desbordada y que tenía serias dificultades para censurar y eliminar con rapidez los contenidos violentos, de odio o incluso delictivos por cuya circulación por sus perfiles y canales durante horas o días estaba recibiendo duras críticas. No obstante, una filtración al diario británico 'The Guardian' desveló que, de hecho, es la propia compañía nortemericana creada por Mark Zuckerberg la que, en los manuales que elabora para guiar el trabajo de sus controladores de contenidos, cuando menos es permisiva con determinados tipos de comentarios e imágenes violentas, que considera que no es preciso suprimir o censurar.

Los extractos que el rotativo británico ha sacado de aproximadamente un centenar de manuales internos señalan que Facebook instruye a sus "moderadores" para que, en su labor de control del flujo de información de la red, permitan la libre circulación de determinadas imágenes de muertes violentas, de abusos no sexuales a menores, de abortos o de intentos de autolesión, entre otras situaciones delicadas de sexo, violencia o terrorismo.

Las normas internas difundidas por 'The Guardian' les aleccionan de que los vídeos de muertes violentas, aunque sean marcados como contenidos perturbadores, no siempre tienen por qué ser borrados, ya que pueden ayudar a concienciar sobre problemas como las enfermedades mentales. Por razones similares justifican no cortar o eliminar las retransmisiones en vivo de intentos de autolesión. Argumentan que "no quieren censurar o castigar a personas en peligro" porque la publicidad de estas acciones puede ayudar al protagonista a través de la intervención de su familia o amistades o de las autoridades. La red social, que tampoco ve problema alguno en autorizar la difusión de abusos a animales siempre que se avise de lo escabroso o hiriente del contenido, aplica la misma permisividad con algunas imágenes que muestran abuso físico o intimidación sobre niños siempre que no sea de tipo sexual o tenga un componente sádico o de celebración.

Los manuales sí que reclaman la retirada de cualquier contenido que haga apología del terrorismo -los mensajes que lo critican están permitidos- y de las amenazas directas contra personas concretas. Aquí distingue entre creíbles y no creíbles. Hay que eliminar contenidos como "alguien debe darle un tiro a Trump", pero no otros como "para romper el cuello a un perro asegúrese de aplicar toda la presión en mitad de la garganta".

La desnudez también provoca censura si no es una obra de arte. Se permite mostrar desnudos, e incluso actos sexuales, si la obra de arte "está hecha a mano", pero no si es un trabajo digital. No tienen problema en permitir vídeos de abortos, pero siempre que no muestren desnudos. Otro dato llamativo de la filtración en que la red recibe 6,5 millones de quejas a la semana de posibles cuentas falsas que se usan para difundir noticias igual de falsas.

Los "moderadores" con los que habló 'The Guardian' confirman que el crecimiento acelerado de la red -cada día se publican 300 millones de fotografías- y su escaso número (4.500 hasta ahora) los desborda, más cuando muchas veces tienen que tomar decisiones difíciles sobre normas de publicación en cuestión de segundos.

Fue el propio Zuckenberg quien el 3 de mayo pasado reconoció que estaban superados cuando anunció la contratación de 3.000 nuevos "moderadores", un aumento de golpe de más de 60% de la plantilla, para mejorar el control de contenidos, sobre todo de los violentos, de odio y de tráfico de menores.

Realizó el anuncio después de que, a lo largo de abril pasado, varias tragedias transmitidas en Facebook conmocionaron a los internautas. Hace menos de un mes, un tailandés ahorcó y mató a su hija de 11 meses en directo por Facebook Live antes de suicidarse también ante la cámara.

El vídeo, que permaneció muchas horas accesible en la red, levantó olas de críticas contra los medios que difundieron las imágenes. El escándalo ocurrió solo una semana después de que un estadounidense transmitiese en Facebook el asesinato de un anciano elegido al azar en Cleveland y se suicidase, también en directo, después de tres días de persecución policial.
 


Comentarios
Te recomendamos que antes de comentar, leas las normas de participación de Diario de Navarra

Lo más...
volver arriba

© DIARIO DE NAVARRA. Queda prohibida toda reproducción sin permiso escrito de la empresa a los efectos del artículo 32.1, párrafo segundo, de la Ley de Propiedad Intelectual

Contenido exclusivo DN+
VER EL CONTENIDO COMPLETO
Ya soy DN+
Continuar

Estimado lector,

Tu navegador tiene y eso afecta al correcto funcionamiento de la página web.

Por favor, para diariodenavarra.es

Si quieres navegar sin publicidad y disfrutar de toda nuestra oferta informativa y contenidos exclusivos, tenemos lo que buscas:

SUSCRÍBETE a DN+

Gracias por tu atención.
El equipo de Diario de Navarra