La red social con más usuarios del mundo, Facebook, eliminó más del doble de contenidos considerados de odio entre abril y junio que en el trimestre anterior, coincidiendo con el inicio del boicot publicitario contra la empresa instigada precisamente por esta cuestión.
La firma que dirige Mark Zuckerberg publicó este martes su sexta edición del informe de aplicación de las normas comunitarias, en el que ofrece los datos más recientes de contenidos suprimidos por violar las políticas internas de la plataforma, como por ejemplo compartir mensajes que inciten al odio, violencia o pornografía.
En el pasado trimestre, Facebook eliminó en todo el mundo 22,5 millones de mensajes de odio contra distintos grupos humanos, frente a los 9,6 millones que eliminó entre enero y marzo, un incremento que achacó a la ampliación de su tecnología de automatización a los idiomas español, árabe e indonesio, además de la mejora de las herramientas en inglés.
En el caso de Instagram, también propiedad de la compañía, el aumento fue incluso superior, y se pasó de los 808.900 contenidos eliminados en el primer trimestre del año, a los 3,3 millones suprimidos en el segundo.
Precisamente cuando se acercaba el cierre del trimestre, en junio, y coincidiendo con un momento de extrema tensión racial en EE. UU. a raíz de la muerte del afroamericano George Floyd a manos de un policía blanco en Mineápolis (Minesota), varias organizaciones civiles llamaron al boicot contra Facebook para que endureciese su censura contra los discursos del odio.
El boicot generó gran revuelo mediático porque compañías muy conocidas como Starbucks, Coca-Cola, Honda, Verizon, Ford, Adidas, HP y Unilever lo secundaron explícita o implícitamente, pero apenas afectó a las cuentas de Facebook, que se nutre principalmente de anunciantes pequeños y del mundo digital.
Además de los mensajes de odio, la empresa de Menlo Park (California, EE. UU.) suprimió entre abril y junio más de siete millones de piezas que consideró que contenían información falsa sobre la Covid-19, tales como supuestas medidas preventivas sin base médica o curas que los expertos sostienen que podrían resultar peligrosas.
La cifra de contenidos eliminados del resto de categorías que violan las normas comunitarias de Facebook, como pornografía, acoso, apología del terrorismo y cuentas falsas, entre otras, se mantuvieron relativamente estables o experimentaron variaciones intertrimestrales habituales en cada caso, lejos del enorme incremento vivido por la categoría de discursos del odio.