La BBC reveló cómo Meta y TikTok habrían priorizado la retención de usuarios, aun cuando sus sistemas amplificaban contenido dañino, polémico y viral.

Una reciente investigación de la BBC expone cómo los gigantes tecnológicos permitieron la proliferación de contenido nocivo. Diversos denunciantes explicaron que estas empresas (Tiktok y Meta) apostaron por algoritmos que terminaron premiando contenido que generaba indignación y mantener a las personas conectadas.
Más de una docena de denunciantes y fuentes internas detallaron cómo las corporaciones asumieron riesgos frente a la violencia o el chantaje para asegurar su dominio. La necesidad comercial de retener al público provocó que se ignoraran las advertencias sobre los daños potenciales.
Un ingeniero de Meta relató que los altos mandos ordenaron tolerar material dañino en las cuentas para competir con TikTok. El profesional detalló que esta riesgosa medida respondía directamente a una caída en el precio de las acciones corporativas.
La compañía lanzó su formato de videos cortos sin las salvaguardas de seguridad suficientes para proteger al público. Documentos internos mostraron que esta sección presentaba tasas de acoso y discursos de odio considerablemente mayores que el resto de la red.
Un empleado de TikTok permitió el acceso a los paneles internos de quejas para demostrar las deficiencias del sistema. La evidencia reveló que el personal recibía instrucciones de priorizar casos que involucraban a políticos por sobre reportes perjudiciales.
Las decisiones buscaban mantener una relación sólida con figuras políticas para evitar amenazas de regulación gubernamental. El denunciante aclaró que estas medidas de moderación no se tomaban pensando en los riesgos reales que enfrentaban los usuarios.
El sistema interno clasificó una denuncia grave de una adolescente como un asunto de baja prioridad. Al mismo tiempo, el equipo de seguridad dedicaba sus recursos a resolver casos triviales sobre figuras públicas que habían sido objeto de burlas.
Investigaciones internas de Facebook demostraron que la empresa sabía que sus sistemas informáticos recomendaban material que indignaba a las personas. Estos mecanismos asumían que la alta interacción significaba que el público deseaba consumir más contenido de ese tipo.
Ambas compañías rechazaron categóricamente las afirmaciones de los exempleados sobre la amplificación intencional de material perjudicial. Los voceros oficiales aseguraron que invierten fuertemente en tecnología preventiva y mantienen políticas estrictas para proteger a las personas.