1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW
Sociedad

Facebook revisa 6,5 millones de perfiles falsos a la semana

22 de mayo de 2017

La red social "creció demasiado, demasiado rápido" para controlar todos sus contenidos. Pero está trabajando en ello, como demuestra un estudio del rotativo británico The Guardian.

https://p.dw.com/p/2dLOK
Facebook Nutzer Symbolbild
Imagen: picture-alliance/dpa/O. Berg

Una investigación del diario británico The Guardian ha desvelado algunos de los métodos que está utilizando o que prevé implementar la red social Facebook para luchar contra los contenidos indeseados o constitutivos de delito, tales como abusos o discursos de odio. Entre otras cosas, el rotativo ha puesto a prueba sus protocolos subiendo contenido dudoso y analizando cuándo es bloqueado y cuándo no.

El estudio desvela que la red social recibe semanalmente seis millones y medio de denuncias contra cuentas falsas (conocidas como FNRP: 'fake, no una persona real'). Además, indica que sus programadores investigan un software que bloquee los contenidos gráficos automáticamente antes de que sea publicado en el sitio web. Sin embargo, como el propio informe destaca, igual que se le ha acusado de permitir la emisión de muertes en directo, el año pasado Facebook borró el vídeo de la muerte a disparos de la policía de Philando Castille, aunque luego admitió que había sido un "error". El caso da cuenta de las dificultades a las que se enfrenta la red social.

Como le dice una de sus fuentes a The Guardian, "Facebook no puede mantener el control de sus contenidos". La red social, que cuenta con dos mil millones de usuarios en todo el mundo, "ha crecido demasiado, demasiado rápidamente". Los casos de asesinatos o violaciones emitidos en directo lanzaron las alarmas desde hace meses. Su fundador, Mark Zuckerberg, admitió entonces que les quedaba "mucho trabajo por hacer" y que continuarían "haciendo todo lo posible para prevenir tragedias como esas".

La red social no va a fiarlo todo a un monitoreo automático de los contenidos y ya anunció la contratación de gente que revise el material que se publique. Aun así, los criterios deben estar bien establecidos y estos son los que desvela el informe. Por ejemplo, un texto como "que alguien dispare a Trump" sería bloqueado porque explicita un objetivo particular para la violencia, pero "golpea a un pelirrojo" no, porque no lo hace. Igualmente, se han definido criterios para el bloqueo para contenidos que van desde los abusos a menores (sexuales o no) hasta a los daños autoinfligidos.

LGC (TheGuardian/Reuters)

La lucha contra el odio en línea