INTERNACIONAL
EEUU

Anthropic denuncia que el Departamento de Defensa de EEUU les exige eliminar todas las salvaguardas que impiden usar la IA para vigilancias masivas de estadounidenses y el uso de drones armados autónomos

El consejero delegado de la empresa, tras muchos rumores, confirma que el Gobierno de Trump amenaza con designarlos como un "riesgo", una etiqueta reservada para los adversarios de EEUU nunca antes aplicada a una empresa estadounidense

Páginas del sitio web de Anthropic y los logotipos de la empresa
Páginas del sitio web de Anthropic y los logotipos de la empresaAp
Actualizado

Una denuncia gravísima, la más grave hasta el momento en el mundo de la inteligencia artificial, la Defensa y el espionaje. Después de días de rumores y filtraciones parciales, el consejero delegado de Anthropic, una de las firmas punteras de Inteligencia Artificial y la que tiene más contratos y accesos con el Departamento de Defensa de Estados Unidos, ha confirmado este jueves en un comunicado público lo que era un secreto a voces: la administración Trump, por medio de su secretario Pete Hegseth, están presionando y amenazando a la empresa para que elimine todas las salvaguardas existentes que impiden utilizar su tecnología para la vigilancia masiva de ciudadanos estadounidenses y la creación de drones armados autónomos.

El Pentágono, según la denuncia de la empresa, advierte de que habrá consecuencias enormes para los creadores del chatbot Claude, y que se invocarán leyes para lograr sus objetivos por la fuerza, pero Antrhopic asegura que no van a plegarse. "Estas amenazas no cambian nuestra postura: no podemos, en conciencia, acceder a su solicitud", afirman.

"Es una pena que Dario Amodei sea un mentiroso y tenga complejo de Dios. Solo quiere controlar personalmente a las Fuerzas Armadas de EEUU. y no le importa poner en riesgo la seguridad de nuestra nación. El Departamento de Guerra SIEMPRE se adherirá a la ley pero no se doblegará ante los caprichos de ninguna empresa tecnológica con fines de lucro", reaccionó enseguida el subsecretario de Defensa, Emil Michael.

La tensión entre Anthropic y el Pentágono ha ido a más esta semana, incluyendo una visita forzosa del directivo y su equipo a los cuartele generales. Durante la misma, Hegseht le dio 48 horas de plazo, hasta este viernes, para que capitulara y le dé acceso completo a su tecnología. Dario Amodei ha expresado reiteradamente sus reservas éticas sobre el uso indiscriminado de la IA por parte del gobierno, no sólo en lo que respecta a la vigilancia, sino a la idea de drones armados y totalmente autónomos. Pero el Pentágono le dijo, según su versión, que o bien les daba acceso total o no sólo expulsarían a la firma de sus sistemas, sino que la designarían como "riesgo para la cadena de suministro", una etiqueta inédita para firmas estadounidenses, o que se invocaría la Ley de Producción de Defensa para, en esencia, conseguir el acceso por las malas.

"Creo profundamente en la importancia existencial del uso de la IA para defender a Estados Unidos y otras democracias, y para derrotar a nuestros adversarios autocráticos. Por eso, Anthropic ha trabajado proactivamente para implementar nuestros modelos en el Departamento de Guerra y la comunidad de inteligencia. Fuimos la primera empresa de IA de vanguardia en implementar nuestros modelos en las redes clasificadas del gobierno estadounidense, la primera en implementarlos en los Laboratorios Nacionales y la primera en proporcionar modelos personalizados para clientes de seguridad nacional. Claude se utiliza ampliamente en el Departamento de Guerra y otras agencias de seguridad nacional para aplicaciones de misión crítica, como análisis de inteligencia, modelado y simulación, planificación operativa, operaciones cibernéticas y más. Anthropic también ha actuado para defender el liderazgo de Estados Unidos en IA, incluso cuando esto va en contra de los intereses a corto plazo de la empresa. Decidimos renunciar a cientos de millones de dólares en ingresos para impedir el uso de Claude por parte de empresas vinculadas al Partido Comunista Chino, desmantelamos ciberataques patrocinados por el PCCh que intentaban abusar de Claude y abogamos por estrictos controles de exportación de chips para garantizar una ventaja democrática", explica el directivo en un comunicado publicado esta tarde, hora de Washington.

Anthropic reitera que no es su tarea tomar decisiones militares y que nunca han puesto pegas "a operaciones militares específicas ni hemos intentado limitar el uso de nuestra tecnología de forma ad hoc", pero que se ha llegado al límite y hay una línea que no quieren cruzar. La denuncia intenta conseguir que la presión del Congreso y la opinión pública haga ceder al Pentágono, pero será complicado.

"En un número limitado de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos. Algunos usos también están simplemente fuera de los límites de lo que la tecnología actual puede hacer de forma segura y fiable. Dos de estos casos de uso nunca se han incluido en nuestros contratos con el Departamento de Guerra y creemos que no deberían incluirse", dice Amodei precisamente en el caso de la vigilancia y de los drones.

"Apoyamos el uso de la IA para misiones legales de inteligencia y contrainteligencia extranjera. Sin embargo, el uso de estos sistemas para la vigilancia nacional masiva es incompatible con los valores democráticos. La vigilancia masiva impulsada por IA presenta riesgos graves y novedosos para nuestras libertades fundamentales. Si dicha vigilancia es legal actualmente, se debe únicamente a que la ley aún no se ha adaptado a las crecientes capacidades de la IA. Por ejemplo, según la legislación vigente, el Gobierno puede adquirir registros detallados de los movimientos, la navegación web y las asociaciones de los estadounidenses de fuentes públicas sin obtener una orden judicial, una práctica que, según reconoce la Comunidad de Inteligencia, plantea problemas de privacidad y ha generado oposición bipartidista en el Congreso. La potente IA permite ensamblar estos datos dispersos e individualmente inocuos en una imagen completa de la vida de cualquier persona, de forma automática y a gran escala", dice el comunicado en la denuncia más clara por parte de un actor principal con amplio acceso a la información y los recursos de los militares.

"Las armas parcialmente autónomas, como las que se utilizan actualmente en Ucrania, son vitales para la defensa de la democracia. Incluso las armas totalmente autónomas (aquellas que eliminan por completo a los humanos del proceso y automatizan la selección y el ataque a los objetivos) pueden resultar cruciales para nuestra defensa nacional. Pero hoy en día, los sistemas de IA de vanguardia simplemente no son lo suficientemente fiables como para impulsar armas totalmente autónomas. No proporcionaremos, a sabiendas, un producto que ponga en riesgo a los combatientes y civiles estadounidenses. Hemos ofrecido colaborar directamente con el Departamento de Guerra en I+D para mejorar la fiabilidad de estos sistemas, pero no han aceptado la oferta. Además, sin una supervisión adecuada, no se puede confiar en que las armas totalmente autónomas ejerzan el juicio crítico que nuestras tropas profesionales y altamente entrenadas demuestran a diario. Deben desplegarse con las debidas garantías, que hoy en día no existen", dice el comunicado.

Las dos denuncias son gravísimas y muestran el riesgo tanto para los derechos civiles como para la seguridad individual. En su escrito, que va a causar un enorme revuelo porque ya no son las filtraciones de los últimos días, sino una confirmación total, Anthropic asegura que "el Departamento de Guerra ha declarado que solo contratará a empresas de inteligencia artificial que acepten 'cualquier uso legal' y eliminen las salvaguardias en los casos mencionados. Han amenazado con eliminarnos de sus sistemas si mantenemos estas salvaguardias; también han amenazado con designarnos como un 'riesgo para la cadena de suministro' (una etiqueta reservada para los adversarios de EEUU., nunca antes aplicada a una empresa estadounidense) e invocar la Ley de Producción de Defensa para forzar la eliminación de las salvaguardias. Estas dos últimas amenazas son inherentemente contradictorias: una nos etiqueta como un riesgo para la seguridad; la otra, como esencial para la seguridad nacional. Pero en todo caso, estas amenazas no cambian nuestra postura: no podemos, en conciencia, acceder a su solicitud", concluyen.

"El Departamento de Guerra no tiene ningún interés en usar IA para la vigilancia masiva de estadounidenses (lo cual es ilegal), ni queremos usar IA para desarrollar armas autónomas que funcionen sin intervención humana. Esta narrativa es falsa y la difunden izquierdistas en los medios. Esto es lo que pedimos: permitir que el Pentágono utilice el modelo de Anthropic para todos los fines legales. Esta es una solicitud sencilla y sensata que evitará que Anthropic ponga en peligro operaciones militares críticas y potencialmente ponga en riesgo a nuestros combatientes. No permitiremos que ninguna empresa dicte las condiciones de nuestras decisiones operativas. Tienen hasta las 17:01 h (hora del este) del viernes para decidir. De lo contrario, rescindiremos nuestra colaboración con Anthropic y la consideraremos un riesgo para la cadena de suministro de DOW", había avisado el jueves por la mañana el portavoz del Pentágono.

Aunque los puentes parecen rotos, la empresa intenta al final de su comunicado tender una mano. "Es prerrogativa del Departamento seleccionar a los contratistas que mejor se ajusten a su visión. Sin embargo, dado el valor sustancial que la tecnología de Anthropic aporta a nuestras fuerzas armadas, esperamos que lo reconsideren. Nuestra firme preferencia es continuar sirviendo al Departamento y a nuestros combatientes, con las dos salvaguardias solicitadas vigentes. Si el Departamento decide desvincularse de Anthropic, trabajaremos para facilitar una transición fluida a otro proveedor, evitando cualquier interrupción en la planificación militar, las operaciones u otras misiones críticas en curso. Nuestros modelos estarán disponibles bajo las amplias condiciones que hemos propuesto durante el tiempo que sea necesario", termina el texto.