Facebook y la responsabilidad en la toma del Capitolio

Una nueva investigación compromete a la red social por su responsabilidad en la toma al Capitolio de Estados Unidos hace un año.

Hola, ¿cómo estás? 

Espero que hayas tenido unas Fiestas más o menos felices y empezado bien el 2022. Yo pasé Navidad con familia y amigos, y después volví a mi ciudad y me tomé una semana de vacaciones ahí mismo, en mi casa. No hubo mails de trabajo por esos días y fue un silencio atronador. Usé el tiempo para ir de la cama al living y, entre las películas que vi en estos días de fiaca estuvo Don’t Look Up. Por alguna razón que desconozco se armó mucho debate en Twitter al respecto, y la verdad es que la disfruté en gran parte por el personaje del multimillonario innovador y excéntrico de la película, que parece sumamente inspirado en los emprendedores tecnológicos contemporáneos. Un señor que no sabemos si es o se hace. 

De aquí, vamos directo a una investigación del Washington Post y ProPublica sobre la responsabilidad de Facebook (ahora Meta) en los eventos del 6 de enero de 2021, cuando un grupo de gente tomó el Capitolio en Estados Unidos. ¿Por qué vale la pena leer y contarte de esta investigación? Porque muestra con mucho detalle cómo funciona la plataforma y qué es lo que la empresa hace y no hace para contribuir a los resultados que luego vemos.   

Un poco de contexto  

En un newsletter anterior te conté de las revelaciones de Frances Haugen, ex empleada de Facebook. Frances se sumó al equipo de seguridad de Facebook entusiasmada por todo lo que se puede hacer desde un lugar tan poderoso y se fue decepcionada por lo que vio -falta de recursos financieros y humanos, además de voluntad, para hacer las cosas que la contrataron para hacer-. Pero no se fue sola, sino que se llevó consigo una serie de documentos y habló en medios de prensa y ante el Congreso de Estados Unidos. Sus revelaciones fueron amplias e iban desde que Facebook sabe muy bien que Instagram es malo para la salud mental de niñas y adolescentes e igual lo promociona e incluso quiere extenderlo a niños más pequeños, hasta que alguna gente famosa o relevante tiene permisos especiales para postear contenido en la red -incluso contenido ofensivo-. 

Lo que nos interesa particularmente acá es lo que ella contó sobre las acciones de la empresa durante las elecciones presidenciales de 2020. Básicamente, Facebook tenía un equipo de Civic Integrity dedicado a vigilar la desinformación y violencia alrededor del tema electoral que venía muy cargado, porque el ahora expresidente Donald Trump había empezado a decir que se iban a robar la elección y que no pensaba aceptar el resultado -cosa que de hecho sigue sin hacer-. Como venían de la injerencia rusa en las elecciones anteriores, y varios otros problemas que la plataforma ha tenido en otros países, se supone que tuvieron una actitud preventiva y cuidadosa al crear Civic Integrity. 

En Cenital nos importa que entiendas. Por eso nos propusimos contar de manera sencilla una realidad compleja. Si te gusta lo que hacemos, ayudanos a seguir. Sumate a nuestro círculo de Mejores amigos.

Sin embargo, una vez concluidas las elecciones en noviembre de 2020, la empresa desarmó el equipo. El problema es que, entre la noticia del resultado y la declaración efectiva del nuevo presidente Joe Biden por parte del Congreso, hubo un mes y medio. En ese tiempo mucha gente usó la plataforma para cuestionar el resultado de las elecciones, esparcir mentiras y organizarse para “impedir” esa declaración. 

Así llegamos al 6 de enero de 2021, esto es hace un año y un día, cuando un grupo de personas tomó el Capitolio -quizás recuerdes al muchacho de los cuernos y pieles, entre varias otras figuras-. Murieron 5 de los atacantes, y 138 miembros de las fuerzas de seguridad del Capitolio resultaron heridas (4 se suicidaron desde entonces). Esta foto es particularmente poderosa. Es Eugene Goodman, un policía del Capitolio, y está intentando evitar que la gente, en su inmensa mayoría blanca, entre a las cámaras del Senado. 

Las nuevas revelaciones

Hace tres días ProPublica, junto con el Washington Post, publicó los resultados de su larga investigación sobre el rol de Facebook en la organización de la toma del Capitolio. Los periodistas encontraron que hubo un total de 650.000 posts, y mínimo 10.000 por día sobre el tema. Los posts se concentraban en negar los resultados de las elecciones, llamar a la organización para frenar el supuesto fraude y amenazar a políticos. 

Por supuesto este análisis se basa en la extracción de datos de Facebook (realizada por CounterAction, dedicada al estudio de la desinformación online) y por tanto puede dejar muchísimas cosas afuera. Los periodistas indican que Facebook es el mejor equipado para hacer este trabajo, pero ellos no han hecho público ningún estudio. De hecho, tampoco hizo la investigación que le pidió su propio Oversight Board (Junta de Supervisión) ni le dio la información al comité del Congreso que investiga lo que pasó ese 6 de enero -la compañía dice estar negociando con el comité-. 

Volviendo a la investigación, la clave es el rol de los “grupos”. En la plataforma, la gente no habla uno a uno, comentando las fotitos de las vacaciones o del gato nuevo de su amiga, sino que discute en grupos que precisamente juntan gente que piensa parecido y tiene intereses similares. En esos grupos hay mayor interacción y por eso son una “prioridad estratégica” de la plataforma desde 2017 -más interacción, más tiempo en la plataforma, más plata para Meta-. Por supuesto, estos grupos pueden ser sobre cualquier cosa: tejido o la puna argentina, y en ese caso nadie se pondrá violento (aunque quién sabe las pasiones que pueden surgir alrededor de estos temas), pero es distinto cuando se trata de las divisiones más importantes entre la población estadounidense –fundamentalmente las raciales y la oposición entre una supuesta élite liberal y un supuesto pueblo-. 

El punto es que todos en Facebook sabían que esos espacios estaban fuera de control y fue por eso que se armó un grupo especial de gente dedicada a controlar su actividad y posteos antes de la elección. Civic Integrity fue inmensamente efectivo en controlar la conversación en la plataforma, vigilando que cumpliera las condiciones estipuladas en contra del discurso de odio y la violencia. 

Sin embargo, fue desarmado inmediatamente después de los resultados de las elecciones -Facebook dice que eso no fue así, sino que el grupo se integró en otro más grande y que sigue trabajando ahí- y disminuyó, en general, la vigilancia. El resultado de eso, según esta investigación, es que la plataforma se inundó de posteos en grupos llamando a boicotear el resultado de la elección y a la violencia en general, contribuyendo luego a lo que pasó en el mundo real. 

Más en general, los empleados de Facebook que hablaron para esta investigación revelan que el sistema de vigilancia de grupos no funciona. La plataforma confía en los administradores de los grupos (pero hay que ver si los administradores quieren hacer ese trabajo e incluso si en grupos grandes este trabajo es posible) o en herramientas automatizadas (que no son efectivas. Aquí podés escuchar por qué esto no puede ser automatizado ¿aún?). 

¿Es culpa de Facebook?

En su defensa un vocero de Meta le dijo a estos medios que era ridículo pensar que ellos tenían la responsabilidad por lo sucedido hace un año. El responsable, aseguran, es Donald Trump, que llamó a la insurrección minutos antes de que la toma sucediera y, por supuesto, la gente que siguió su “consejo”. Eso es cierto, Trump estaba a pocas cuadras azuzando a la gente y la gente fue sola -aunque en grupo- de un lado a otro. 

Sin embargo, aquí hay tres cosas que indican responsabilidad de Facebook:

  1. La promoción de los grupos: este es un punto que no me canso de repetir. La conversación, posteo o interacción en cualquier plataforma no tiene nada de “natural”. Actuamos distinto en Facebook, Instagram o Twitter y eso es por reglas, incentivos, empujones, que nos da cada aplicación. Entonces los grupos tienen consecuencias específicas y determinadas que la plataforma debe conocer.  
  2. Creer que el problema estaba resuelto post resultados de las elecciones (o creer que el problema estará resuelto alguna vez). 
  3. Ir detrás del ratón: otra vez, Facebook se da cuenta del problema una vez que el problema sucedió. Al parecer es más fácil crear una realidad virtual en la que vamos a poder escalar los Alpes desde el sillón de nuestra casa que entender la situación política de un país y los comportamientos individuales y grupales. O quizás no sea una cuestión de dificultad, sino de prioridades.

El del estribo

  • Un resumen de The Guardian del año horrible de Facebook. ¿Será mejor el 2022?
  • Un episodio del Daily, el podcast del New York Times, sobre quiénes entraron al Capitolio ese día.

Cosas que pasan

  • Elizabeth Holmes, fundadora y CEO de Theranos, fue encontrada culpable de fraude. Podría ir a la cárcel por veinte años, pero va a apelar así que aún no sabemos qué pasará.
  • Twitter (y al parecer Facebook) dieron de baja la cuenta de la congresista republicana Marjorie Greene conocida por acosar a AOC, ser anti vacunas y estar (o hacer que está) bastante crazy en general.  
  • Burofax está a favor del eclecticismo estético, pero este look de Jeff Bezos para el año nuevo genera muchas dudas. 

Gracias por llegar hasta acá. Te deseo un gran 2022.  

Un abrazo,

Jimena

PD: Desde hace meses recibo en mi casilla varios de los newsletters de Cenital, y ahora estoy (también) del otro lado. Si tenés ganas, podés colaborar con nuestro periodismo acá. Y, si todavía no lo hiciste, te recomiendo que te sumes al canal de Telegram que lanzó Cenital.

Soy economista (UBA) y Doctora en Ciencia Política (Cornell University). Me interesan las diferentes formas de organización de las economías, la articulación entre lo público y lo privado y la relación entre el capital y el trabajo, entre otros temas. Nací en Perú, crecí en Buenos Aires, estudié en Estados Unidos, y vivo en Londres. La pandemia me llevó a descubrir el amor por las plantas y ahora estoy rodeada de ellas.