Una nueva investigación expone cómo Facebook aprobó anuncios publicitarios que incitaban a la violencia contra los trabajadores electorales de EE. UU., mientras que YouTube y TikTok pudieron detectar y rechazar estos anuncios.
Facebook falló en detectar tres cuartas partes de los anuncios publicitarios de prueba que llamaban explícitamente a la violencia y al asesinato de los trabajadores electorales de EE. UU antes de las reñidas elecciones a la Cámara de Representantes de ese país a principios de este mes, revela la nueva investigación realizada por Global Witness y el equipo de Ciberseguridad para la Democracia (C4D) de la Escuela de Ingeniería Tandon de la Universidad de Nueva York.
La investigación probó la capacidad de Facebook, TikTok y YouTube para detectar anuncios pagos que contenían amenazas de muerte contra los trabajadores electorales y reveló resultados marcadamente contrastantes entre los gigantes de las redes sociales: YouTube y TikTok suspendieron nuestras cuentas por violar sus políticas, mientras que Facebook aceptó el 75% (15 de los 20) anuncios con amenazas de muerte que enviamos para su publicación.
Los anuncios contenían diez ejemplos de la vida real de amenazas de muerte contra trabajadores electorales que incluían declaraciones de que se mataría, ahorcaría o ejecutaría a estas personas, y que se abusaría de los niños. Probamos las versiones en inglés y español de estos anuncios y los presentamos el día anterior y el propio día de las elecciones. Global Witness y C4D no están publicando estos anuncios debido al discurso violento que contienen [1].
Una vez que Facebook aprobó la publicación de los anuncios, Global Witness y C4D los eliminaron antes de que se mostraran en la plataforma para evitar difundir expresiones de odio y violencia.
Esta investigación se produce inmediatamente después de un informe reciente de Global Witness y C4D que mostró que Facebook tampoco detectó por completo los anuncios de desinformación electoral antes de las elecciones de la Cámara de Representantes de EE.UU., incluidos los anuncios que proporcionaban una fecha de elección incorrecta y los que intentaban deslegitimar el proceso electoral. Esa investigación probó de manera similar las capacidades de TikTok y YouTube para detectar la desinformación electoral. En ese estudio, TikTok aprobó el 90% de los anuncios de desinformación electoral.
“Es increíblemente alarmante que Facebook haya aprobado anuncios que amenazan a los trabajadores electorales con violencia, linchamientos y asesinatos, incluso en medio de crecientes amenazas reales contra estos trabajadores”, dijo Rosie Sharpe, Investigadora de Global Witness. “Este tipo de actividad amenaza la seguridad de nuestras elecciones. Sin embargo, lo que Facebook dice que hace para mantener segura su plataforma apenas se parece a lo que realmente hace. La incapacidad de Facebook para detectar el discurso de odio y la desinformación electoral, a pesar de sus compromisos públicos, es un problema global, tal como lo ha demostrado Global Witness este año en investigaciones en Brasil, Etiopía, Kenia, Myanmar y Noruega”.
“El hecho de que Facebook no bloquee los anuncios que abogan por la violencia contra los trabajadores electorales pone en peligro la seguridad de estos trabajadores. Es perturbador que Facebook permita a los anunciantes que han publicado amenazas de violencia seguir comprando anuncios en la plataforma. Facebook está en el deber de mejorar sus métodos de detección de contenido con violencia y expulsar a los anunciantes que la promuevan”, dijo Damon McCoy, codirector de C4D.
Un portavoz de Meta dijo en respuesta a nuestra investigación: "Esta es una pequeña muestra de anuncios que no son representativos de lo que la gente ve en nuestras plataformas. El contenido que incita a la violencia contra los trabajadores electorales o cualquier otra persona no tiene cabida en nuestras aplicaciones y los informes recientes han dejado en claro que la capacidad de Meta para abordar estos problemas supera efectivamente la de otras plataformas. Nosotros seguimos comprometidos a continuar mejorando nuestros sistemas”.
Le preguntamos a Meta por la evidencia que respalda la afirmación de que la plataforma es mejor para lidiar con la incitación a la violencia que otras, y el portavoz compartió reseñas en la prensa que señalan que Meta dedica más recursos que otras plataformas y que, por ende, es mejor en la moderación de contenidos que algunas plataformas de la derecha alternativa. Si bien estas afirmaciones pueden ser certeras, no constituyen evidencia de que Meta sea mejor para detectar la incitación a la violencia que otras plataformas convencionales. Asimismo, debe haber cero tolerancia con relación a las fallas de sistemas de moderación, más aún antes de procesos electorales importantes, cuando las tensiones y el potencial de riesgo y daño son tan altos.
Global Witness y C4D hacen un llamado a las plataformas de redes sociales para que doten de recursos adecuados a sus equipos de moderación de contenidos en todo el mundo y así garantizar que sus productos no conlleven riesgos por su uso.
Vea la lista completa de recomendaciones que Facebook debe implementar con urgencia aquí.