Ciencia y tecnología

Quién regula a los reguladores

Las iniciativas regulatorias suelen tener estigmas que se parecen a intervenciones estatales autoritarias. El debate está en la forma de poner reglas eficientes, democráticas y orientadas a la protección de derechos fundamentales.
17 de enero de 2021

La moderación de contenidos ha sido un tema en los últimos 10 años, pero hace un par, especialmente desde 2020 con la pandemia y la creciente tendencia de moderación automatizada, ha tomado centralidad. De todos modos, intentamos abordar una arista del mismo que tiene relación con la capacidad, o incluso la necesidad, de las big tech de limitar ya no sólo el discurso público general, sino también expresiones de importantes funcionarios públicos y jefes de Estado. 

Los hechos del pasado 6 de enero, con fanáticos del presidente Donald Trump irrumpiendo en en el Capitolio de los Estados Unidos (en un intento insurrecto de anular los resultados electorales), fueron ocasionados luego de que el mismo Trump emitiera mensajes de incitación a la violencia en uno de sus discursos y, durante años, en sus plataformas. 

La respuesta coordinada de Twitter, Facebook, Instagram y Snapchat luego de los episodios derivó en la suspensión de las cuentas de Trump en dichas redes de manera indefinida. También YouTube lo hizo durante al menos una semana (por plataformas entendemos a las redes por las que circula el debate público global). 

Al mismo tiempo, Apple, Google y Amazon Web Services (en su faceta de proveedores de alojamiento en la nube) dieron de baja a la plataforma Parler de sus servicios, un sitio reconocido globalmente por haber galvanizado a la extrema derecha norteamericana, ayudándoles a organizar el ataque.

Lo que sucedió con Parler apunta a varios problemas más importantes, entre los que se destacan el excesivo poder de los proveedores principales de servicios cloud, de tiendas de aplicaciones y otras funciones básicas en la red, como las mencionadas anteriormente. Estas empresas no solamente tienen una incidencia decisiva sobre el ecosistema de Internet, sino que a menudo la ejercen con escasa o nula transparencia en decisiones como la que analizamos. Resulta llamativo que no se pueda conocer en detalle cómo fue el proceso en el que se decidió excluir a Parler. Organizaciones defensoras de derechos humanos han destacado la necesidad de coherencia y transparencia para que los desarrolladores y el público sepan cómo y cuándo las plataformas aplican sanciones basadas en sus términos de servicio. 

Además de la aplicación de esos términos (contratos privados que unen a usuarios con plataformas y a servicios entre sí) y de la excesiva concentración que poseen estos servicios, queda una pregunta sobre la legitimidad de origen. Las decisiones de excluir usuarios de plataformas concentradas y masivas, y las de dejar de alojar aplicaciones completas en servicios clave, distan de la justicia formal que otorgan los estados (al menos los democráticos) para los cuales es un requisito ineludible utilizar jueces naturales e imparciales, que están obligados a fundamentar sus sentencias y a basarse en ley previa, además de permitir la apelación de las decisiones. 

El problema de la regulación privada

Tanto las plataformas concentradas de comunicación y las empresas proveedoras de servicios en la nube (con clientes corporativos, es decir, otras plataformas) han tenido intervenciones preocupantes cuando han demostrado diferentes varas al rehusarse a actuar de la misma manera en otros países del mundo en situaciones similares. Considerando que Facebook ha sido esencial para articular llamados a la violencia en Myanmar, Etiopía y en otras partes del mundo, y otros líderes gubernamentales han utilizado Twitter para incitar a la violencia: ¿Por qué las  plataformas tecnológicas no respondieron de manera similar en otras partes del mundo?

Libertad de expresión

Los ejecutivos de Parler han manifestado su preocupación por la exclusión decidida por las grandes empresas de tecnología, al identificarla como ¨un ataque a la libertad de expresión¨. Sin embargo,en Estados Unidos la interpretación mayoritaria de la Primera Enmienda de la Constitución habilita este tipo de decisiones privadas y sólo protege contra la censura gubernamental. 

Lo anterior tiene interesantes implicancias, ya que el eliminar una red social entera -como Parler- al unísono e impedir  al presidente de los Estados Unidos postear no viola en ningún caso, técnicamente, la Primera Enmienda Constitucional. 

La justicia y la política estadounidenses han decidido que el mercado es el encargado de equilibrar estas fuerzas y conjurar los peligros del dominio privado sobre el debate público, al confiar en la competencia como remedio preferido. La situación actual de hiperconcentración en diversas funciones indispensables para el funcionamiento de Internet pone en jaque esa idea y muestra casos cada vez más claros y graves de impacto en la libertad de expresión.

¿Quién supervisa a los moderadores?

Las decisiones que toman estas empresas impactan fuertemente -y a escala global- en uno de los principales derechos humanos de corte político, como la libertad de expresión, y las mismas empresas tienen cabal conciencia de este impacto. El propio Jack Dorsey, CEO de Twitter, plantea en un hilo de su autoría que “tener que tomar estas acciones fragmenta la conversación pública” y “además de sentar un precedente peligroso derivado del poder que un individuo o una corporación tiene sobre una parte de la conversación pública global”. 

Por su parte, existe una legítima preocupación de ciertos jefes de Estado (hubo reacciones de primeros mandatarios en México, Brasil y Alemania) sobre las decisiones de moderación de contenido sin la debida accountability (un anglicismo que engloba las ideas de transparencia, rendición de cuentas y supervisión) que realizan las plataformas de redes sociales dominantes sobre los usuarios y los propios primeros mandatarios. Es particularmente interesante, en el marco de una regla dorada para el desarrollo de Internet, que estas empresas no sean consideradas responsables por los contenidos de sus usuarios. Estos principios de Manila, que tienen correlato legal en algunos países del mundo, resultan insuficientes para determinar responsabilidades de plataformas respecto de actos propios de selección, contextualización, recomendación y amplificación de contenidos, lo que se asemeja -sin igualarse- a funciones editoriales de los medios tradicionales.

¿Cómo poner reglas eficientes, democráticas y orientadas a la protección de derechos fundamentales? Las iniciativas regulatorias suelen tener estigmas, derivados de malos ejemplos de leyes alrededor del mundo que, con procesos de mejor o peor calidad, se parecen a intervenciones estatales autoritarias.

Desafíos de regulación pública

Los mecanismos regulatorios que se ideen también deberían poner a los usuarios en el centro y la extensión de sus prerrogativas frente a los gigantes tecnológicos. Algunos países han elegido, de manera equivocada, delegar en las propias plataformas la censura, o definición de qué expresiones son legítimas, y en otros casos se han producido “acuerdos de gobernabilidad” entre gobiernos y empresas, acrecentando el problema de la concentración.

Algunos de los desafíos regulatorios son conocidos. Algo ya decíamos hace unos meses respecto de la necesidad de los congresos nacionales de incorporar los análisis internacionales de derechos humanos de los últimos años en los debates parlamentarios.  

Una regulación adecuada debería seguir el consenso científico y la evidencia para idear intervenciones eficientes que tengan en cuenta la variedad de factores (comunicacionales, sociales, económicos y políticos) en juego en el efecto de las redes en la democracia.  

Este debate ya inició en nuestro país y en la región con propuestas de regulación formuladas por actores de diferentes sectores, que intentan conjugar la protección de los derechos humanos de los usuarios con la limitación del poder de las plataformas.

Lo que queda es lo más difícil: ¿Cómo hacer todo esto evitando acrecentar el poder que las corporaciones ya tienen como reguladoras del discurso?

Abogado y consultor. Cuenta con más de 15 años de experiencia en procesos y debates internacionales sobre Políticas Públicas y Gobernanza de Internet.
@andrespiazza
Director Global de políticas públicas de Accessnow, una ONG internacional que defiende los derechos de los usuarios de internet
@javierpallero
Suscribite a nuestros newslettersHay otra manera de informarse. Te escribimos correos para darte contexto, análisis y referencias para entender las noticias. Periodismo serio con memes.

Apoya nuestro periodismo

Si te gusta lo que hacemos, ayudanos a seguir haciéndolo.