Es hora de preguntarnos cómo gobernar y habitar Internet

Plataformas digitales como Twitter, Facebook e Instagram suspendieron las cuentas de Trump, tras el asalto al Capitolio por parte de sus seguidores. Hoy tienen la responsabilidad social sobre qué puede decirse y qué no, una atribución que nunca pidieron.

Facebook, Twitter, Instagram, YouTube, Spotify: cada hora, se suman más plataformas digitales a la lista de las que restringieron las actividades de Donald Trump tras la irrupción de un grupo de manifestantes al Capitolio. En el bolsillo, hoy Trump tiene poco más que un Nokia 1100: no tiene acceso a casi ninguna de las plataformas digitales donde pasamos la mayoría de nuestro tiempo en Internet.

Las plataformas son un sitio clave para nuestras democracias: nos permiten recibir información de personas con cargos públicos, conocer las opiniones de pares o personas expertas y organizar nuestro activismo, entre otras acciones cívicas. Del mismo modo, pueden tener consecuencias que consideramos socialmente negativas: la difusión masiva de desinformación, la organización de supremacistas o el fomento de protestas violentas. Hoy, las plataformas moderan su contenido para aplacar estos efectos y en ese sentido está la decisión de echar a Trump de muchas de ellas. Sin embargo, el debate está lejos de ser cerrado. Nos debemos una conversación colectiva sobre si seguir demandándole a las plataformas que moderen su contenido más intensamente o si queremos buscar pautas consensuadas y robustas sobre cómo decidir qué puede decirse y qué no en nuestra sociedad.

Muchas personas expertas leyeron la expulsión de Trump como una “movida de poder”: con su censura, las grandes empresas detrás de las plataformas que utilizamos (el “Big Tech”) demostraron que tienen más poder que el presidente de los Estados Unidos. Sin embargo, es difícil entender cómo es algo bueno para las plataformas si jamás lo pidieron. Moderar contenido y censurar a personas (sobre todo al presidente de los Estados Unidos, una de las figuras políticas más populares en su país) es extremadamente caro y difícil.

En Custodians of the Internet (2018), Tarleton Gillespie, investigador de Microsoft Research, explica que la moderación de contenidos es costosa para las plataformas por los recursos que involucra: una pirámide de trabajadores, desde los usuarios que denuncian contenidos voluntariamente a operarios en call centers que deciden qué sigue las reglas y qué no, pasando por inteligencias artificiales y managers. Por otro lado, moderar contenido requiere tomar decisiones difíciles constantemente: por ejemplo, ¿mostrar un pezón es pornografía? Estas distinciones son difíciles de sostener y costosas, y aunque se establezcan reglas claras es casi imposible que no se traten de criterios subjetivos. Por último, la moderación somete a las plataformas a rechazos masivos: si los usuarios no coinciden con el criterio adoptado, esto puede generar críticas importantes y posiblemente dejen de utilizarlas.

Si moderar es tan caro, ¿por qué asumen esa responsabilidad? En términos generales, las plataformas digitales son el contenido que se comparte a través de ella: si cuando ingreso a una plataforma me encuentro con contenido desagradable, mi experiencia va a ser mala y no voy a querer estar ahí. Hasta hace unos años, fortalecer la experiencia del sitio y cumplir con la ley eran las razones principales por las cuales las plataformas moderaban contenidos. En el último tiempo, estas razones fueron excedidas. Hoy reconocemos que las plataformas son instituciones claves de nuestra sociedad: estamos de acuerdo en que su uso puede impactar en el resultado de una elección u organizar una revolución. Por eso, hoy las plataformas no toman decisiones solo para subsistir comercial o legalmente, sino que también están sometidas a la presión activista de sus usuarios, los trabajadores de sus empresas, la clase política y la sociedad civil. Cumplen un rol social: las plataformas tienen que moderar sus contenidos para permitir la libre expresión y a la vez reducir las consecuencias negativas que asumimos colectivamente (la distribución de desinformación o la organización de un golpe de estado). En ese sentido, la justificación de por qué las plataformas tienen que moderar este contenido es obvia: si obtienen una ganancia privada por nuestro uso, tienen que hacerse responsables de los costos que socializan, es decir, de sus consecuencias sociales.

El reclamo de que las plataformas tomaran acciones decisivas sobre los contenidos “socialmente dañinos” (como la propaganda supremacista, llamados a la violencia o la desinformación) llevó a que incluyeran este tipo de contenidos en los mecanismos de moderación ya existentes para reglamentar casos anteriores. Así, las plataformas debieron asumir la responsabilidad de decidir qué contenido es socialmente dañino y cuál no. El problema de asignarles esta atribución es que es, en gran parte, una “pendiente resbaladiza”. Las personas progresistas pueden celebrar que se le haya quitado una plataforma de comunicación a Trump, pero con los mismos criterios que las plataformas censuraron al mandatario podrían censurar a activistas que convoquen a una manifestación. Del mismo modo, cuando las plataformas censuran la desinformación, se atribuyen la facultad de decidir qué contenido es verdadero y qué contenido es falso. Cuando le pedimos a las plataformas que censuren y moderen, les solicitamos que sean las indicadas para decir qué es aceptable decir y qué no en la esfera pública.

¿Sabés cómo se financia Cenital? El principal sostén de nuestro medio son sus lectoras y lectores. Eso nos pone orgullosos y nos da la tranquilidad necesaria para hacer el periodismo en que creemos. Si te gusta lo que hacemos, sumate vos también a nuestra comunidad.

Ahora bien, este tipo de censura no es una novedad. En las sociedades occidentales liberales, el rol de determinar qué puede decirse y qué no recae generalmente sobre la Justicia. Desde su aparición, la Justicia liberal tiene un aprendizaje institucional: una historia de casos, aplicaciones e interacciones con la ciudadanía que la fueron fortaleciendo y legitimando como un mecanismo válido de dirimir conflictos. Además, los poderes judiciales tienen confianza y legitimación pública: sabemos o podemos aprender cómo se eligen nuestros jueces, y está en la agenda política. En cambio, las plataformas son instituciones nuevas, no tienen el mismo aprendizaje institucional que tienen las instituciones gubernamentales. Las reglas de moderación son volátiles, las leyes no lo son. Los equipos de moderación cambian rápidamente, los jueces cambian poco. Las plataformas mejoran las tecnologías de detección de infracciones constantemente, la Justicia mantiene las mismas para garantizar la transparencia. Para las plataformas, es muy difícil generar confianza pública: no sabemos quién modera nuestro contenido y cómo lo hace. Generalmente hay una inteligencia artificial detrás, difícil de escrutar hasta por sus creadores.

Entonces, ¿la moderación de las plataformas debería quedar en manos de los Estados? Lo cierto es que la Justicia liberal también tendría grandes problemas lidiando con esto. Las causas judiciales son lentas: requieren pruebas, audiencias, procesos. Se trata de una institución que fue creada para las interacciones en papel: la velocidad y la escala de las interacciones en Internet harían la moderación impracticable con la estructura estatal de hoy. Con procesos opacos y de alta discrecionalidad, moderar es más barato, pero esto se opone al ideal democrático del Estado. Para garantizar la transparencia y reducir la discrecionalidad, el Estado debería alterar radicalmente su estructura para poder moderar los contenidos de las plataformas. Esto sería extremadamente costoso, lo cual seguramente llevaría a un impuesto hacia las plataformas o a sus usuarios. El resultado sería o bien aumentar los costos de participar en la esfera pública, o concentrar las plataformas en las pocas empresas que puedan costearse ese impuesto, imposibilitando la innovación. Si el Estado buscase “ahorrar” costos, podría tender hacia formas autoritarias que prohiban contenidos ampliamente o que eliminen formas de transparencia y rendición de cuentas, yendo contra todo ideal de libre expresión.

Hoy, las plataformas llevan la responsabilidad social sobre qué puede decirse y qué no, una atribución que las plataformas nunca pidieron. Si ni las plataformas ni los organismos estatales son los indicados para moderar nuestra esfera pública, tenemos que reivindicar el rol de la sociedad civil para gobernar nuestra Internet.

La sociedad civil puede ganarse la confianza del público y adaptarse rápidamente a los requisitos de gobernar Internet. Muchas propuestas están en este sentido: por ejemplo, Mike Masnik propuso que los sitios como Twitter operen bajo protocolos abiertos, donde distintas organizaciones de la sociedad civil elegidas por los usuarios mismos actúen como moderadoras, y atrajo el interés del mismo Jack Dorsey, el CEO de Twitter. Por otro lado, en un documento de 2018, Mark Zuckerberg propuso que la moderación en Facebook dependiera cada vez más de cuerpos de gobernanza de la sociedad civil independientes de la empresa, aunque queda pendiente la pregunta de la rendición de cuentas ante el público de este tipo de organismo. Otra propuesta interesante es la de Ethan Zuckerman, del Institute for Digital Public Infrastructure de UMass Amherst, que sugiere ir hacia plataformas diseñadas por la sociedad civil que prioricen la discusión entre pares.

Las empresas privadas podrían finalmente dedicar menos recursos a tomar decisiones sobre política y más a las cosas que hacen mejor: innovar con nuevos modos de compartir contenido en redes o mejorar nuestra experiencia digital haciéndola más eficiente, accesible y amigable con nuestro planeta. Todo esto puede existir en un marco común donde la sociedad civil pueda organizarse para asegurar mecanismos colectivos de moderación, donde no dirijamos nuestra angustia y descontento a quienes son los propietarios de las plataformas sino a un ejercicio productivo de decidir qué puede decirse en la esfera pública.

Moderar la esfera pública es una atribución demasiado importante para forzar a las plataformas. Qué es aceptable decir y qué no es una pregunta clave para nuestras democracias. Es hora de dar un paso atrás de la coyuntura política y comenzar a preguntarnos cómo gobernar y habitar Internet.

Estudiante doctoral en Comunicación en Stanford, investigador afiliado en el MIT Civic Design Initiative.