Las principales plataformas de redes sociales aprobaron la desinformación mediante pruebas de anuncios
21 de octubre de 2022, Nueva York/Londres - TikTok aprobó el 90 por ciento de los anuncios con información electoral engañosa y falsa, probados por Global Witness y el Equipo de Ciberseguridad para la Democracia (C4D) de la Universidad de Nueva York, revelaron hoy las organizaciones.
Por su parte, Facebook aprobó un número significativo de anuncios igualmente inexactos y falsos, mientras que YouTube detectó y rechazó cada uno de los anuncios presentados. YouTube también suspendió el canal utilizado para publicar los anuncios de prueba.
El experimento, destinado a determinar en qué medida las plataformas de medios sociales están cumpliendo sus promesas de frenar la desinformación que puede desestabilizar los procesos democráticos, publicó 20 anuncios en las tres plataformas, tanto en inglés como en español, dirigidos a estados "difíciles" como Arizona, Colorado y Georgia.
Aunque TikTok ha prohibido explícitamente los anuncios políticos, la plataforma aprobó anuncios que contenían afirmaciones inexactas, entre las que se incluían anuncios afirmando que se ampliarían los días de votación, que los votos de las primarias se contarían automáticamente en las elecciones de medio término y que las cuentas de las redes sociales podían ser utilizadas como verificación de votantes. TikTok también aprobó anuncios que desestiman la integridad de las elecciones, que sugieren los resultados pueden ser saboteados o que ya están decididos de antemano, y desaniman a los votantes de acudir a las urnas.
El único anuncio que TikTok rechazó –que decía que los votantes debían vacunarse contra el COVID para poder votar– fue aceptado para su publicación por Facebook.
Jon Lloyd, Asesor Senior de Global Witness, dijo:
"Esto ya no es un problema nuevo. Llevamos años viendo cómo importantes procesos democráticos se ven socavados por la desinformación, las mentiras y el odio que se difunden en las plataformas de las redes sociales; las propias empresas incluso reconocen el problema. Pero esta investigación demuestra que siguen sin hacer lo necesario para impedir que las amenazas a la democracia afloren en sus plataformas."
"Crear la tecnología y luego lavarse las manos ante su impacto no es un comportamiento responsable por parte de estas grandes empresas que se están forrando de dólares. Ya es hora de que pongan orden en sus casas y empiecen a dotar de recursos adecuados para detectar y prevenir la desinformación, antes de que sea demasiado tarde. Nuestra democracia depende de su voluntad de actuar".
Laura Edelson, Co-Directora de C4D, dijo:
"Gran parte de la conversación pública actual sobre las elecciones sucede en Facebook, YouTube y TikTok. La desinformación tiene una gran repercusión en nuestras elecciones, algo fundamental para nuestro sistema democrático. Los resultados de YouTube en nuestro experimento demuestran que detectar la desinformación electoral perjudicial no es imposible. Pero todas las plataformas que estudiamos debieron haber sacado una “A” (nota sobresaliente) en esta tarea. Pedimos a Facebook y a TikTok que mejoren: detengan la información falsa sobre las elecciones antes de que llegue a los votantes."
La detección de desinformación electoral por parte de YouTube demuestra que es posible detectar y detener la desinformación electoral, mientras que el fracaso de Facebook y TikTok es preocupante. Mientras tanto, en un experimento similar realizado antes de las elecciones en Brasil, Facebook y YouTube aceptaron todos los anuncios que contenían desinformación, lo que demuestra que la aplicación de la ley fuera de Estados Unidos es muy deficiente.
Los hallazgos se producen en medio de una amplia preocupación por la desinformación en las redes sociales que ha plagado todas las elecciones importantes de Estados Unidos desde al menos la votación presidencial de 2016, así como las votaciones en todo el mundo en los últimos años.
Investigaciones similares de Global Witness mostraron recientemente que el 100% de los anuncios de desinformación electoral probados en Brasil y el 100 por ciento de los anuncios de discurso de odio probados en Myanmar, Etiopía y Kenia pasaron por el proceso de aprobación de Facebook.
Un portavoz de Meta dijo en respuesta a nuestros experimentos que "estaban basados en una muestra muy pequeña de anuncios, y no son representativos dado el número de anuncios políticos que revisamos diariamente en todo el mundo" y continuó diciendo que su proceso de revisión de anuncios tiene varias capas de análisis y detecciones, y que invierten muchos recursos en sus esfuerzos de integridad electoral. TikTok reafirmó que la plataforma "prohíbe y elimina la desinformación electoral y la publicidad política pagada", mientras que Google aún no ha respondido.
A raíz de estos hallazgos, Global Witness y C4D piden a las empresas que actúen, a través de lo siguiente:
Meta (Facebook) y TikTok:
- Aumentar urgentemente las capacidades de moderación de contenidos y garantizar que esto sea igual en todo el mundo, incluyendo el pago de un salario justo y la protección de los derechos de los trabajadores a los moderadores de contenidos
- Reforzar los procesos de verificación de cuentas
YouTube:
- Aumentar las capacidades de moderación de contenidos en todo el mundo, para garantizar que la experiencia en EE.UU. sea la regla en todas partes, y no la excepción
A las tres empresas:
- Evaluar, mitigar y publicar periódicamente los riesgos sobre los que inciden sus servicios, incluidos los derechos humanos y los procesos democráticos, así como publicar información sobre las medidas que están tomando en cada país
- Proporcionar una transparencia total y pública sobre todos los anuncios que se publican en su biblioteca de anuncios en línea
- Permitir la realización de auditorías independientes por parte de terceros
- Publicar su evaluación del riesgo preelectoral en Estados Unidos