Facebook Papers: Los oscuros secretos de la red social que expuso una filtración

Primero fue el Wall Street Journal el que a través de su proyecto, «los archivos de Facebook», reveló algunas filtraciones de la red social. Por medio de un especial de 14 notas, el gigante de las noticias expuso información inédita que surgía a partir de una informante anónima y exempleada de la compañía de Mark Zuckerberg.

El pasado lunes 25 de octubre, fueron más medios los que revelaron completamente la información. Se trató de la unión histórica de grandes, medianos y pequeños medios estadounidenses, incluida The Associated Press, quienes investigaron y descalificaron las más de 10.000 páginas que dejaba la filtración. A dicha investigación, los medios agrupados la denominaron «Facebook Papers».

La filtración de estos papeles demostraron oscuras acciones de la compañía, así como también investigaciones internas sobre lo perjudicial de las redes sociales de la compañía.

Los documentos fueron entregados primero a Wall Street Journal de manera anónima. Finalmente se conoció la identidad de la mujer, se trata de Frances Haugen, ingeniera en informática de 37 años que trabajaba como gestora de productos en el equipo de Integridad Cívica de Facebook. Su identidad fue dada a conocer en el programa «60 Minutos» de la CBS, y el 5 de octubre su revelación la llevó incluso a declarar frente al Senado de Estados Unidos.

En esta nota recogimos alguno de los principales puntos que ha dejada la revelación hasta ahora.

Las celebridades en Facebook

En la entrevista, Haugen, sostuvo que «Facebook una y otra vez eligió optimizar para sus propios intereses, para ganar más dinero«. Además la exfuncionaria aseguró que en la compañía «había conflictos de intereses entre lo que era bueno para el público y lo que era bueno para Facebook». A partir de eso, los documentos revelados dejan ver algunas de las formas en las que opera la red social.

Una de las primeras revelaciones de los Facebook Papers fue respecto al trato que daba la compañía a celebridades y personas públicas, todo esto a través de su algoritmo. Bajo el sistema conocido como XCheck, Facebook habría creado una lista con cerca de 5 millones de personas «conocidas» o públicas que tenían un menor nivel de control y podían saltarse ciertas reglas. Podríamos decir que tienen «mayor margen».

Lo anterior permitió que, por ejemplo, el futbolista Neymar pudiera publicar fotografías intimas de una mujer que lo acusó de violación. La acción de pornovenganza del brasileño estuvo 24 horas en la red social, cosa que no ocurriría con otras personas, ya que el algoritmo detectaría el desnudo y bajaría la publicación.

La Junta Supervisora de Facebook, según los documentos revelados, cuestionó la falta de claridad para verificar las cuentas e incluirlas en este listado, ya que estaba «indebidamente influenciado por consideraciones políticas y comerciales».

El odio en Facebook

En 2018 Facebook cambió de su clásico algoritmo a «News Feed», el que permitía centrarse en «interacciones significativas». Según revelaron los documentos de la filtración basados en estudios internos, aquello provocó ira y división en línea. Frances Haugen explicó al parlamento que en Facebook «la ira y el odio es la forma más fácil de crecer».

Según los mismos documentos, Facebook decidió que su algoritmo privilegiaría los emojis como reacciones, cinco veces más que un simple me gusta. La compañía rápidamente habría notado que la cara de enojo era la que más se asociaba a contenido tóxico, desinformación, odio o noticias de baja calidad. A pesar de detectarlo, siguió privilegiando ese contenido debido a que «engancha» a los usuarios.

Haugen reveló que Facebook privilegia los extremos políticos, dejando a las ideas moderadas fuera de la orbita de la red social. Aquello se reflejó en una acusación de partidos políticos en Polonia, quienes consideran a Facebook como causante de la polarización de ese país.

Llegan a Facebook el 'me encanta', 'me divierte' y 'me enoja' - Chilango

Mark Zuckerberg dijo el 2020 ante el Congreso de EE. UU que eliminaban cerca del 94% de las publicaciones con discurso de odio, sin embargo, los documentos revelan que sólo se hace entre un 3% y 5%. Aquí se revela otro gran problema: los esfuerzos se concentran en Estados Unidos.

Lo anterior porque Facebook, según un informe interno, dedica el 84% de los recursos destinados a la regulación del odio y la desinformación en Estados Unidos. El resto del porcentaje es distribuido en todo el mundo. Lo que ha puesto en riesgo a países como Etiopía que vive una guerra civil y donde no se regula el contenido que ahí se publica. Por otro lado, existen países en los que la inteligencia artificial de la compañía no logra detectar los discursos de odio debido a los idiomas, como pasa en Myanmar o Pakistán.

Estas dificultades terminarían provocando y alimentando la violencia en lugares fuera de Estados Unidos, sobre todo en países como la India donde la red social tiene gran presencia. Aquello expone lo frágil de las democracias ante un espacio virtual que carece de regulación y que, por el contrario, privilegia la división y el odio.

Falta de control

El movimiento «Stop the Steal» puso en jaque la democracia de Estados Unidos durante la toma de poder del nuevo presidente en las elecciones recién pasadas en ese país. El 6 de enero un grupo de personas, seguidoras del expresidente Donald Trump, irrumpió al capitolio con la teoría conspirativa de que la elección había sido «robada». Según los documentos filtrados, los individuos se organizaron a través de Facebook, sin embargo, la red social sólo tomó acciones contra los grupos cuando estos llevaron a cabo acciones violentas.

El documento que se vincula con ese hecho, sugiere que «Facebook podría haber hecho más para detener la propagación del movimiento que desempeñó un papel fundamental en los disturbios en el Capitolio». De hecho, según los informes, los mismos empleados de la red social asumen que esta pudo haber tenido cierta culpa en los hechos de ese 6 de enero.

Llegada la pandemia por Covid-19, los investigadores de la empresa habrían recomendado limitar las publicaciones de noticias falsas. En concreto, aquello significaba detener el impulso que se daba a los contenidos que son compartidos múltiples veces, lo que habría reducido un 38% la circulación de estas noticias.

Asalto al Capitolio: las pistas sobre cómo el ataque no fue tan espontáneo  (y las sospechas de que hubo ayuda desde dentro) - BBC News Mundo

Sin embargo, el propio Zuckerberg se habría negado a la medida porque modificar el algoritmo podría producir cambios en la concesión sobre la principal métrica de Facebook, Meaningful Social Interaction (MSI).

Uno de los puntos más impactantes, hasta ahora, dados a conocer por la prensa revela que los empleados de Facebook regularmente detectaban publicaciones sobre carteles de drogas y tráfico de personas. A pesar de eso Facebook habría tomado medidas limitadas y débiles hasta que Apple amenazó con sacarlos de la App Store. El principal gatillante de aquello sería la falta de detección de la red social en otros idiomas en esas circunstancias.

David Kirkpatrick, autor del libro «El efecto Facebook», señala que la compañía sólo «respondió a las presiones de relaciones públicas» en Estados Unidos, ya que aquello podría afectar sus acciones.

Ante este episodio, uno de los más complejos por los que ha pasado la compañía, Mark Zuckerberg anunció el nuevo nombre de la compañía: Meta. A pesar de aquello los ojos siguen puestos sobre la compañía y las revelaciones podrían seguir ocurriendo.

¿Qué te parece esta situación?

Síguenos en Google News