La demanda de Cristina habilita el debate de la regulación de Internet

El planteo judicial de la vicepresidenta evidenció la escasa regulación que existe en Argentina, al igual que en la mayoría de los países, sobre la transparencia de algoritmos.

El jueves 6 de agosto, la vicepresidenta Cristina Fernández de Kirchner solicitó, mediante un escrito judicial presentado por su apoderado Carlos Beraldi, una pericia informática contra Google que tiene por objeto servir “como prueba en una demanda”, según expresiones de la propia mandataria. 

¿De qué se trata la denuncia?

El día 17 de mayo, durante unas horas, las búsquedas en Google referidas al nombre de “Cristina Fernández de Kirchner” dieron como resultado la leyenda “Ladrona de la Nación” en el “panel de conocimiento” (una sección que se ubica en la parte superior derecha de los resultados y en la que se suelen consignar los cargos que actualmente ostentan las personalidades públicas). Los abogados de la vicepresidenta alegan que estas difamaciones no sólo pudieron ser vistas por millones de personas en la plataforma antes de haber sido corregidas, sino que, además, fueron reproducidas y amplificadas por diferentes medios de prensa nacionales. Aunque los agravios invocados son indudables, aún en el lapso de unas horas, las alegaciones parecen una (forzada) interpretación de la violación de un “vínculo contractual» derivado de la Ley de Defensa del Consumidor.

La demanda tuvo amplias repercusiones, tanto políticas como jurídicas, especialmente después de que el juez Civil y Comercial Federal 7, Javier Pico Terrero, diera curso, un día después, al pedido de una pericia informática. 

Si bien está ampliamente aceptado que las figuras públicas tienen menos derecho a proteger su honor y deben soportar estándares más altos de Libertad de Expresión en las críticas que se les profieren, el caso que es interesante por la forma en que las injurias se reproducen y amplifican con el “panel de conocimiento”. Según el propio Google, el panel es un intento “automático” de parte del algoritmo para mostrar los contenidos más populares y relevantes.

Dado que las personalidades pueden pedir cambios en el panel (especialmente cuando no se perciben intenciones maliciosas de un “editor” humano), podría parecer que  bastaría con la autorregulación para resolver el caso individual. Sin embargo, es indudable que las selecciones, priorizaciones y jerarquizaciones que realiza el buscador no son neutras, sino que se tratan de “actos propios” que deben ser reconocidos. 

En Cenital nos importa que entiendas. Por eso nos propusimos contar de manera sencilla una realidad compleja. Si te gusta lo que hacemos, ayudanos a seguir. Sumate a nuestro círculo de Mejores amigos.

En otras palabras, aunque aparentemente las intenciones difamatorias fueron obra de militantes que “manipularon el algoritmo” y editaron el sitio Wikidata del que Google se nutre para armar su panel -aunque no se sabe cómo sucedió realmente, y sólo quienes programaron el algoritmo pueden determinarlo-, puede existir responsabilidad por parte del editor.  

Por otra parte, otros sostienen que el armado de una selección documental con imágenes de personas de gran exposición pública no es sólo una mera edición, sino que se trata de un contenido completamente nuevo, y, por lo tanto, la responsabilidad emergente sería aún más clara. 

El contexto global

El reclamo de Cristina por sus derechos individuales no impacta sólo en las posibles indemnizaciones que pudieran corresponderle, sino que ha originado y acelerado un debate mucho más interesante sobre la regulación de las grandes plataformas de internet y, especialmente, sobre la responsabilidad de los intermediarios. Este debate se está dando en simultáneo en todo el mundo y Argentina todavía lo adeuda.  

Cada vez menos actores de la llamada “Gobernanza de Internet” se animan a sostener el “modelo de autorregulación”, aún cuando se entiende que los intermediarios no son los autores del contenido que publican o ayudan a encontrar. 

Tras muchos debates internacionales, se ha llegado a la conclusión, como en el caso de los Principios de Manila, de que los intermediarios no deberían responder por contenidos de terceros, y que los contenidos generados por los usuarios no deberían ser limitados sin las garantías de una orden judicial y sin el respeto por el debido proceso. Sin embargo, no ha existido la misma eficacia a la hora de producir regulaciones capaces de comprender acabadamente el funcionamiento de la red. 

Uno de los temas claves que resta por debatir tiene que ver con las responsabilidades que se puedan asignar en una eventual regulación de las plataformas concentradas, teniendo en cuenta que una importante cantidad de actores pretenden atribuirles responsabilidad objetiva a los algoritmos, argumentando que se trata de elementos riesgosos por sí mismos y apoyándose en analogías tradicionales del Derecho de Daños. 

Es importante mencionar que una regulación de este tipo (factores objetivos de atribución de responsabilidad) no sólo puede resultar inconveniente para las empresas sino para sus usuarios. Los incentivos del comportamiento de las empresas pasarían a impedir la libre circulación de información y a convertir a las plataformas en maquinarias de censura privada sin garantía, incluso más de lo que lo son actualmente. Por ejemplo, en el Reporte de Transparencia de Facebook de 2020, se informa que el 88% de los contenidos eliminados por discurso de odio fueron detectados sin intervención humana. Hablamos de cerca de 10 millones de expresiones por trimestre, cuando apenas hace un año se detectaba automáticamente el 70% de las expresiones y se eliminaban “apenas” 5 millones por trimestre. No en vano Europa está avanzando hacia la responsabilidad subjetiva adicionando deberes de cuidado. 

Hacia la regulación de los algoritmos

El debate sobre la regulación algorítmica trasciende a la moderación de contenidos de terceros efectuada por las Big Tech. El impacto de la Inteligencia Artificial en nuestras vidas es el tema más estudiado y debatido del momento en los foros internacionales. 

Sin embargo, el planteo judicial de la vicepresidenta evidenció la escasa e insuficiente regulación que existe en Argentina, al igual que en la mayoría de los países, sobre la transparencia de algoritmos. Desconocer cómo trabaja un algoritmo que incide en la información de millones de personas -y, en consecuencia, en sus vidas- es un problema para los usuarios y también para las empresas. 

El pedido de la medida de prueba anticipada que ha sido concedido por el Juez pretende brindar “acceso e intervención de la totalidad del sistema y registro informático utilizado por la empresa” argumentando que “la prueba que surja de su plataforma es de única y exclusiva administración de la empresa”. El acceso de un perito al código total de uno de los algoritmos de Google parece, además de ilusorio, desproporcionado y peligroso.

El constante diálogo multisectorial a nivel internacional ha llegado a conclusiones interesantes que gozan de cierto grado de legitimidad, como es el caso de los principios de Santa Clara. Uno de los principales desafíos regulatorios tiene que ver con la capacidad de los congresistas de incorporar los análisis internacionales de los últimos años en los debates parlamentarios.  Algunos incluyen propuestas de regulación formuladas por actores de diferentes stakeholders que intentan conjugar la protección de los Derechos Humanos de los usuarios con la limitación del poder de las grandes plataformas.  

Abogado y consultor. Cuenta con más de 15 años de experiencia en procesos y debates internacionales sobre Políticas Públicas y Gobernanza de Internet.