Estados Unidos contra Anthropic: entre espías virtuales y robots asesinos
La empresa de tecnología le puso un coto al uso de la IA que el Departamento de Guerra pretendía. El Gobierno escaló su enfrentamiento ante la negativa.
La defensa nacional es, desde siempre, un ámbito privilegiado para el desarrollo de la innovación, la experimentación y el despliegue de capacidades por parte de los Estados. Hay muchas razones para eso, desde el margen que da el secreto para fallar, intentar y experimentar hasta la exposición directa en el que pone a los Estados a las lógicas de competencia que rigen la economía de mercado. La cantidad de innovaciones vinculadas al complejo de defensa es incontable e incluye desde el GPS hasta la internet. La inteligencia artificial generativa, cuyo hito fundante es un paper puesto en el dominio público por Google, es probablemente la primera gran tecnología en la que el Estado tiene un rol importante, pero secundario en su desarrollo originario. Sin embargo, era impensable que una tecnología ubicua, cuyos usos son transversales al quehacer social, se mantuviera al margen de las demandas vinculadas a la seguridad nacional.
En 2024, Anthropic decidió ubicarse en la vanguardia de esa tendencia, y fue la primera empresa que suscribió –en asociación con Palantir– un convenio con el gobierno de los Estados Unidos, que entonces comandaba Joseph Biden, para su utilización en las redes confidenciales del Pentágono. Es decir, que se le dio acceso a información clasificada para tareas sensibles, por ejemplo tareas de análisis de inteligencia de datos o identificación de blancos militares sensibles. El contrato, ampliado en sus montos durante el gobierno de Donald Trump, contenía dos grandes limitaciones en los usos posibles de la tecnología. Se prohibía el uso para vigilancia doméstica masiva y para armas plenamente autónomas, sin decisión humana para su uso ofensivo.
El conflicto se configuró cuando el Pentágono exigió a Anthropic que aceptara una cláusula de “all-lawful use”, es decir, que el Departamento pudiera emplear sus modelos para cualquier uso legalmente permitido. Anthropic se negó a retirar las excepciones, y el gobierno de Estados Unidos dispuso, primero, la cancelación del contrato, y luego, de manera mucho más dramática, la designación de la empresa como un “riesgo de cadena de suministro” para la Seguridad Nacional.
Si te gusta Mundo propio podés suscribirte y recibirlo en tu casilla los lunes.
Las versiones varían y los detalles son, por la naturaleza misma del contexcto, opacos. Pero Anthropic sostiene que su posición fue acotada. En sus comunicados, el CEO Dario Amodei afirmó que la empresa apoyaba “todos los usos legales” para seguridad nacional, con dos excepciones estrechas, y agregó que tales excepciones no habían afectado ninguna misión concreta. Del lado del gobierno estadounidense, la respuesta fue que ninguna empresa puede limitar el modo en que el Gobierno de los Estados Unidos lleva adelante sus misiones si lo hace en cumplimiento de la ley, que actualmente no permite ni la vigilancia masiva ni el uso de fuerza letal sin un ser humano que se responsabilice. Puesta así, la controversia parece técnica y casi inofensiva.
Poder y resistencia
Los trascendidos, sin embargo, indican una controversia que es indicativa sobre las capacidades de los sistemas. Se puede entender la limitación de la vigilancia masiva de dos maneras. Por un lado, la prohibición de que el gobierno desarrolle sin control herramientas para vigilar a sus ciudadanos. Allí, los límites suelen ser estrechos, generar controversias públicas, y estar establecidos con relativa claridad en la ley. En cambio, es mucho más complejo el uso de las millones de bases de datos producidas de forma privada y fragmentada que, por ejemplo, aceptamos cada vez que entramos a un web, usamos una aplicación o hacemos un video con el celular. Esa información que es abundante y cotidiana, enfrentaba el problema de las dificultades para clasificarla, armonizarla y darle coherencia.
Los sistemas de inteligencia artificial son capaces de facilitar enormemente esa tarea, dándole un valor exponencialmente mayor a la información disponible y poniendo al gobierno, al menos teóricamente, muchísimo más cerca de poder trazar perfiles y patrones razonablemente fieles e individualizados de cualquier ciudadano, sin necesidad de incurrir en el tipo de vigilancia que la legislación prohíbe. Esa diferencia entre la realidad y la jerga legal parece haber estado en el centro de la controversia.
Cenital no es gratis: lo banca su audiencia. Y ahora te toca a vos. En Cenital entendemos al periodismo como un servicio público. Por eso nuestras notas siempre estarán accesibles para todos. Pero investigar es caro y la parte más ardua del trabajo periodístico no se ve. Por eso le pedimos a quienes puedan que se sumen a nuestro círculo de Mejores amigos y nos permitan seguir creciendo. Si te gusta lo que hacemos, sumate vos también.
SumateSi es cierto que el gobierno solicitó estar en condiciones de desarrollar herramientas con ese alcance y Amodei, como CEO de Anthropic se negó a entregarlas, la controversia se ubica muchísimo más allá de un tecnicismo legal y versa sobre cuánto puede exigir el Estado y cuánto puede imponer sus condiciones una empresa privada, incluso la más dinámica, innovadora y capaz. No extraña entonces que, en su respuesta, el gobierno haya pulsado el equivalente al botón nuclear. La designación como “riesgo de cadena de suministro” significa que la empresa es caracterizada como un peligro concreto para la Seguridad Nacional, una categoría que hasta el momento sólo se había utilizado para empresas extranjeras –como la china Huawei–, y ante riesgos reales o percibidos de sabotaje o espionaje.
La designación supone no sólo que el Pentágono dejará de utilizar Claude, con un plazo de abandono gradual de seis meses, sino que afecta a contratistas y subcontratistas. El gobierno exige que se excluya a Claude de cualquier empresa en el funcionamiento de la relación con el Pentágono, desde las tradicionales como Lockheed Martin hasta empresas tecnológicas como Palantir o la Amazon Web Service, principal proveedor de servicios en la nube del mundo.
Si bien el alcance de la medida está ceñido a la relación con el gobierno estadounidense, la versión extrema de la medida, un desacople completo por parte de las empresas, similar al que está sucediendo con las contratistas de defensa tradicionales, pondría a Anthropic en una situación similar a la que afecta a Cuba con el embargo estadounidense, privada de comerciar con cualquier empresa que componga la vasta red de proveedores del estado en el sector de defensa.
La primera reacción de Anthropic fue anunciar que apelaría la designación, al tiempo que anunció su intención de sostener conversaciones con el gobierno para encaminar la situación o, al menos, ordenar la transición. En paralelo, hubo una respuesta corporativa. Un grupo de la industria tecnológica —el Information Technology Industry Council, con miembros como Amazon, Nvidia, Apple y OpenAI— expresó su preocupación por la designación, advirtiendo que podía introducir incertidumbre y comprometer el acceso del gobierno a productos tecnológicamente sofisticados de empresas estadounidenses.
Mucho más que una disputa comercial
La importancia de la disputa no se relaciona sólo con dilemas del futuro, sino del presente. La propia Anthropic recordó que ya venía trabajando con el Departamento en materia de inteligencia, modelado y simulación, planeamiento operacional y operaciones cibernéticas. Claude está integrado a algunos flujos sensibles del aparato militar, y fue utilizado tanto en la operación que culminó en la captura de Nicolás Maduro en Venezuela como en los ataques masivos que dieron inicio a la guerra en Irán.
En la medida en que la tecnología se difunde en mayor medida, su importancia estratégica crece, y también lo hacen las amenazas vinculadas a su utilización. La propia capacidad para procesar volúmenes inmensos de información, detectar patrones invisibles para analistas humanos y proponer cursos de acción más rápidos, no sólo sirven para mitigar riesgos operacionales y hacer del uso de la fuerza algo más preciso, también lo vuelven más fácil. En ese marco, la discusión sobre el control de los sistemas es una discusión sobre la capacidad misma de ejercer el poder militar en condiciones competitivas.
La carrera nuclear, entre Estados y entre empresas
El uso y control de los desarrollos de inteligencia artificial se inscribe así en el marco clásico de la competencia entre estados en la que el dominio de estas tecnologías se convierte en un factor de poder central para la posibilidad de aventajar al rival en la competencia estratégica, de manera similar al modo en que lo hizo en el pasado la carrera nuclear. Los Estados aceleran porque creen que la demora es una forma de ceder lugar al adversario, una dinámica que se alimenta del contexto de competencia estratégica en la que los juegos son siempre de suma cero.
En la lógica estadounidense, “lo que no hagamos nosotros, se lo estamos regalando a China”, una máxima que suelen acompañar de explicaciones morales sobre la inconveniencia de que sea ese país el que llegue primero a un determinado desarrollo, sin importar su potencial de daño y que, por supuesto, tiene su contracara en cada país con capacidad para desarrollos similares.
Pero esta lógica escalatoria no se agota en la dinámica interestatal, sino que baña también la competencia interempresarial. La mentalidad dominante en Silicon Valley postula la inevitabilidad del desarrollo de cualquier tecnología que sea posible y, por lo tanto, desarrolló una filosofía en que lo mejor que cada uno puede hacer es desarrollar al máximo la tecnología para moldearla de acuerdo a los estándares que considera más adecuados, mitigando riesgos y maximizando beneficios a partir del dominio de mercado. Así, Anthropic proclama que tiene una visión socialmente más valiosa que OpenAI, esta que Alphabet –y viceversa– y todas ellas que el ecosistema chino al que presentan como la alternativa a su modelo.
Con la grandilocuencia que acompaña a esa filosofía, Anthropic ingresó tempranamente a las relaciones con el aparato de seguridad nacional cuando los usos de la IA generativa eran todavía relativamente marginales, proclamando que estaba, a la vez, garantizando la superioridad tecnológica estadounidense frente a los competidores “autocráticos” y moldeando, además, el modo en que el uso militar de la IA se ajustaba a límites ético-políticos además de los legales.
Un argumento que en los papeles aparecía peligrosamente auto justificatorio, porque convierte cada concesión en un mal menor frente a una concesión aún peor por parte del competidor, pero que ha revelado cierto poder predictivo. Open AI, la empresa de Sam Altman, ocupó rápidamente el lugar de Anthropic y salió a anunciar un acuerdo con el Departamento de Guerra que aseguró cumplía con sus propios estándares éticos. Una carrera descendente donde los límites no son obvios, y con mucho de profecía autocumplida.
¿Una carrera nuclear con actores privados?
Con toda su utilidad, un problema de la analogía con la carrera nuclear es la diferencia entre los actores protagónicos. La competencia nuclear se mantuvo en la órbita exclusiva de los estados. La carrera de la inteligencia artificial, con protagonistas privados y una difusión muchísimo mayor de recursos y capacidades para su dominio introduce lógicas de competencia muchísimo más complejas. La promesa de una superinteligencia que se mejora a sí misma exponencialmente, en la frontera entre la realidad y la ciencia ficción, contiene una promesa de poder y riqueza difícilmente concebibles en la organización social actual en la que los villanos posibles, además de aspirantes a dictadores, pueden ser grandes empresarios.
Si miramos las valuaciones de mercado, la dinámica de la competencia vigente supone que se espera que estos sistemas alcancen capacidades inéditas, generen saltos de productividad inconcebibles y puedan resolver grandes problemas científicos y productivos, acaso volviendo el trabajo humano obsoleto o semi obsoleto. Los dueños de estos sistemas serían entonces ganadores a perpetuidad de una división social petrificada. Una forma de proyectar las actuales relaciones capitalistas hacia el futuro que suena a ciencia ficción pero que surge de desligarse de las tensiones existentes.
Permitir que las empresas actúen como si los desarrollos de inteligencia artificial actuales fueran análogos a cualquier otra tecnología es correr el riesgo de permitir el desarrollo de un poder capaz de autonomizarse y elevarse sobre cualquier forma de control colectivo, consagrando desigualdades que podrían volverse fácilmente irreversibles y desintegradas de ningún mérito más que la propiedad sobre la tecnología original.
Los estados, sin embargo, tienen sus propios problemas. Las controversias no aparecen vinculadas a problemas de bien común, sino a formas de control social que harían muchísimo más fácil la viabilidad de una gobernabilidad autoritaria en un momento en el que esas tendencias se encuentran en auge a nivel global, desde los mecanismos de crédito social y la hipervigilancia en China hasta los despliegues de fuerzas paramilitares para el control migratorio o la persecución de la libre expresión en los Estados Unidos, los ejemplos se multiplican en cada geografía. La inteligencia artificial y el procesamiento de datos rompen con los límites técnicos y de recursos que amenazaron siempre la viabilidad y la eficiencia de los proyectos autoritarios.
¿Hay una salida democrática?
El conflicto evidencia la insuficiencia del dilema “empresa versus Estados” en la búsqueda del bien común a partir de una tecnología cuyo potencial de transformación es incalculable. Las empresas pueden defender principios, pero también, su posición de mercado y la construcción de poder a partir de ella. Los Estados, representantes de la soberanía colectiva, están expuestos a la captura y los impulsos autoritarios. El conflicto entre Anthropic y el Pentágono no prueba que las empresas sean un freno a esos impulsos o que el Estado sea necesariamente el custodio del interés general, es parte de una dinámica compleja en que cualquier resultado supone riesgos sociales enormes y que se puede extrapolar de la defensa a distintas formas de la organización social como el trabajo, la salud o las relaciones humanas.
La pregunta es si es posible reorganizar políticamente la gestión de los avances tecnológicos hacia resultados socialmente benéficos. La idea de que las dinámicas de posibilidad y de competencia son intrínsecamente inevitables e imposibles de combatir contradice la evidencia histórica. Los ejemplos de límites operativos y reorganizaciones virtuosas abundan, aún cuando no sean mayoritarios. La carrera y la competencia nuclear en tiempos de la Guerra Fría dieron paso a acuerdos parciales y cada vez más abarcativos que alejaron, progresivamente, el fantasma de la guerra total y la extinción humana. Tecnologías posibles pero socialmente indeseables, como la clonación humana, fueron frenadas y reconducidas por imposiciones políticas y sociales, y la carrera hacia el fondo de la explotación laboral característica del capitalismo de fines del siglo XIX dio paso a formas de organización del trabajo mucho más atenuadas, colaborativas y respetuosas de la dignidad humana.
Las encuestas dan cuenta de que, ante escenarios hipotéticos en que la inteligencia artificial logra alcanzar el umbral de lo que hoy son los requerimientos de trabajo humano, una mayoría clara de los estadounidenses considera que los beneficios deberían distribuirse equitativamente entre los ciudadanos, antes que asignarse a los propietarios de las tecnologías. Un instinto socialista que desborda las discusiones coyunturales entre empresas y gobiernos, pero que requiere preservar, mientras las tecnologías se desarrollan, el control democrático de la organización social. Un anhelo que todavía no encuentra representantes políticos y corre el riesgo de perderse entre las disputas de los poderosos.
Otros temas para seguir:
- Los Estados Unidos y Venezuela anunciaron la reanudación de las relaciones diplomáticas plenas. Una mera formalidad dados los elogios constantes de Donald Trump hacia la presidenta interina Delcy Rodriguez y los múltiples gestos de alineamiento recientes.
- La guerra en Irán alcanzó su primera semana sin una perspectiva clara de finalización, con cada vez mayores consecuencias regionales y una intensificación de los ataques aéreos. Trump explicitó su intención de elegir un nuevo liderazgo iraní conforme a sus preferencias como un objetivo estratégico de la guerra, mientras que el gobierno iraní anunció a Mojtaba Khamenei, hijo del Líder Supremo asesinado al comienzo de la guerra como reemplazante de su padre.
- Balendra Shah, conocido como Balen, un músico de Hip Hop que había ejercido como alcalde independiente de Katmandú aparece encaminado a convertirse en el próximo primer ministro de Nepal, tras una aplastante victoria electoral basada en una plataforma anticorrupción y un fuerte liderazgo personal. Balen es un emergente de las protestas de jóvenes que derribaron al gobierno de Nepal en 2025 y que se relacionan con otras como las que terminaron con el gobierno de Sheikh Hasina en Bangladesh.