Categorías: Noticias

TikTok y Meta arriesgaron la seguridad para ganar la carrera de los algoritmos, según denunciantes

La BBC reveló cómo Meta y TikTok habrían priorizado la retención de usuarios, aun cuando sus sistemas amplificaban contenido dañino, polémico y viral.

Compartir

Una reciente investigación de la BBC expone cómo los gigantes tecnológicos permitieron la proliferación de contenido nocivo. Diversos denunciantes explicaron que estas empresas (Tiktok y Meta) apostaron por algoritmos que terminaron premiando contenido que generaba indignación y mantener a las personas conectadas.

Documento interno que explica cómo los algoritmos recomiendan contenido que genera indignación. | Créditos BBC

La carrera por la atención de los usuarios y el impacto en el diseño

Más de una docena de denunciantes y fuentes internas detallaron cómo las corporaciones asumieron riesgos frente a la violencia o el chantaje para asegurar su dominio. La necesidad comercial de retener al público provocó que se ignoraran las advertencias sobre los daños potenciales.

Un ingeniero de Meta relató que los altos mandos ordenaron tolerar material dañino en las cuentas para competir con TikTok. El profesional detalló que esta riesgosa medida respondía directamente a una caída en el precio de las acciones corporativas.

La compañía lanzó su formato de videos cortos sin las salvaguardas de seguridad suficientes para proteger al público. Documentos internos mostraron que esta sección presentaba tasas de acoso y discursos de odio considerablemente mayores que el resto de la red.

Reporte que detalla el aumento de comentarios hostiles y acoso en el formato de videos cortos. | Créditos BBC

Fallas en los sistemas de moderación y prioridades corporativas

Un empleado de TikTok permitió el acceso a los paneles internos de quejas para demostrar las deficiencias del sistema. La evidencia reveló que el personal recibía instrucciones de priorizar casos que involucraban a políticos por sobre reportes perjudiciales.

Las decisiones buscaban mantener una relación sólida con figuras políticas para evitar amenazas de regulación gubernamental. El denunciante aclaró que estas medidas de moderación no se tomaban pensando en los riesgos reales que enfrentaban los usuarios.

El sistema interno clasificó una denuncia grave de una adolescente como un asunto de baja prioridad. Al mismo tiempo, el equipo de seguridad dedicaba sus recursos a resolver casos triviales sobre figuras públicas que habían sido objeto de burlas.

Reconstrucción de la BBC del sistema interno de moderación que muestra un caso grave catalogado con prioridad baja | Créditos: BBC

La respuesta de las corporaciones tecnológicas frente a las acusaciones

Investigaciones internas de Facebook demostraron que la empresa sabía que sus sistemas informáticos recomendaban material que indignaba a las personas. Estos mecanismos asumían que la alta interacción significaba que el público deseaba consumir más contenido de ese tipo.

Ambas compañías rechazaron categóricamente las afirmaciones de los exempleados sobre la amplificación intencional de material perjudicial. Los voceros oficiales aseguraron que invierten fuertemente en tecnología preventiva y mantienen políticas estrictas para proteger a las personas.

Ivan

Editor especializado en ciencia y tecnología, con foco en innovación, inteligencia artificial, telecomunicaciones y centros de datos. Trabajo con un enfoque riguroso y técnico, desarrollando contenidos sobre semiconductores, energía, ciberseguridad e infraestructura tecnológica.

Los comentarios de Disqus están cargando....
Publicado por
Ivan