TECNOLOGÍA
TECNOLOGÍA

OpenAI anuncia un acuerdo con el Pentágono sobre los límites del uso militar de su inteligencia artificial

El Departamento de Guerra acepta prohibir la vigilancia masiva interna y garantizar supervisión humana en el uso de la fuerza

El cofundador de OpenAI, Sam Altman.
El cofundador de OpenAI, Sam Altman.YUICHI YAMAZAKI/AFP
Actualizado

El consejero delegado de OpenAI, Sam Altman, anunció este viernes que la empresa tecnológica ha alcanzado un acuerdo con el Departamento de Guerra de Estados Unidos para que sus modelos de inteligencia artificial (IA) puedan ser usados en redes clasificadas.

Según explicó Altman en un comunicado publicado en la red social X, el Pentágono aceptó respetar los principios que prohíben el uso de su IA para la vigilancia masiva en territorio nacional y que exigen "responsabilidad humana en decisiones en el uso de la fuerza, incluido en sistemas de armas autónomos".

"El Departamento de Guerra está de acuerdo con estos principios, los refleja en ley y políticas, y lo hemos añadido a nuestro acuerdo", afirmó Altman.

El cofundador de OpenAI añadió que han pedido que esas mismas condiciones se ofrezcan al resto del sector: "Estamos pidiendo al Departamento de Guerra que ofrezca estos mismos términos a todas las empresas de IA, que en nuestra opinión todos deberían estar dispuestos a aceptar". Asimismo, expresó su "firme deseo de que la situación se desescale y se aleje de acciones legales y gubernamentales para avanzar hacia acuerdos razonables".

El acuerdo llega después de que OpenAI expresara su apoyo a Anthropic en su intento de obtener del Pentágono garantías de que su inteligencia artificial no se emplearía para la vigilancia de ciudadanos estadounidenses ni en sistemas de armas autónomas, unas salvaguardas que el creador de ChatGPT también considera imprescindibles.

Sin embargo, tras meses de conversaciones y una reunión especialmente tensa entre el consejero delegado de Anthropic, Dario Amodei, y el secretario de Guerra, Pete Hegseth, no se logró un entendimiento sobre esos límites de uso del modelo Claude.

Este mismo viernes, Anthropic reiteró que no renunciará a exigir que el Pentágono se comprometa a no utilizar su tecnología con fines de vigilancia interna ni en armamento autónomo.

Hegseth acusó poco antes a la empresa de "arrogancia" y anunció su intención de cancelar alrededor de 200 millones de dólares en contratos con el Departamento de Defensa, además de estudiar su designación como "riesgo para la cadena de suministro", una figura que le impediría acceder a nuevos acuerdos y que suele aplicarse a compañías vinculadas a países considerados adversarios.

Por su parte, el presidente estadounidense, Donald Trump, afirmó en la red social Truth que Anthropic es una empresa de "la izquierda radical" y ordenó rescindir todos sus contratos con el Gobierno federal, con un periodo de transición de seis meses.

Empleados de Google, Amazon y Microsoft también expresaron su apoyo a la postura de Anthropic de no permitir que su tecnología —que, por ejemplo, fue utilizada en la planificación de la captura del mandatario Nicolás Maduro en enero— se emplee para vigilancia interna ni en sistemas de armas plenamente autónomos.

El acuerdo anunciado esta noche por Sam Altman podría contribuir a fijar unas reglas básicas en el uso cada vez más extendido de la inteligencia artificial en tareas de análisis y toma de decisiones militares. En los últimos meses, el debate en Silicon Valley se ha intensificado en torno a los límites y el alcance de estas herramientas en el ámbito de la defensa y en escenarios de combate.