El Pentágono estudia romper con Anthropic por límites a uso militar de su IA

Choque entre Pentágono y Anthropic por vetos a armas autónomas y vigilancia masiva

El Departamento de Defensa de Estados Unidos evalúa poner fin a su relación con Anthropic tras meses de negociaciones infructuosas por las salvaguardas que la empresa impone al uso militar de sus modelos de inteligencia artificial. El Pentágono exige poder emplear estas herramientas para “todos los fines legales”, incluidos el desarrollo de armas, la inteligencia y las operaciones en el campo de batalla, pero Anthropic se niega a levantar restricciones ligadas a armas autónomas y vigilancia masiva de ciudadanos estadounidenses.

Según reveló Axios citando a un alto cargo de la Administración, el Pentágono baraja “todas las opciones”, incluida la reducción o ruptura total de su colaboración con Anthropic, si la compañía mantiene sus líneas rojas en materia de salvaguardas de IA. La advertencia llega después de varios meses de conversaciones en las que el Departamento de Defensa ha presionado a cuatro grandes laboratorios de IA —entre ellos Anthropic, junto a OpenAI, Google y xAI— para que permitan al ejército usar sus modelos en cualquier aplicación considerada legal bajo la normativa estadounidense.

En el centro del conflicto se encuentran dos prohibiciones que Anthropic se niega a retirar: el uso de sus modelos para sistemas de armas totalmente autónomos sin suficiente supervisión humana y su empleo en esquemas de vigilancia masiva de ciudadanos de Estados Unidos. La compañía sostiene que estas salvaguardas forman parte de sus compromisos de seguridad y gobernanza responsable de la IA, diseñados para evitar daños graves y usos que considera incompatibles con sus principios fundacionales.

Los responsables del Pentágono, por su parte, consideran que estas limitaciones introducen “restricciones ideológicas” que pueden bloquear operaciones militares legítimas. De acuerdo con las fuentes citadas, los mandos temen que en escenarios críticos la IA de Anthropic se niegue a generar información o recomendaciones necesarias para misiones de reconocimiento, selección de objetivos o apoyo a la toma de decisiones en tiempo real. Un funcionario llegó a afirmar que el ejército necesita modelos “libres de constricciones ideológicas” que no impidan a los combatientes usar la tecnología en el marco de la ley.

El pulso con Anthropic se produce en un contexto en el que el Departamento de Defensa impulsa la integración acelerada de la IA en sistemas de armas, redes de inteligencia y plataformas de mando y control, apoyado por la doctrina vigente sobre sistemas autónomos. Directrices como la DoD Directive 3000.09 insisten en el mantenimiento del juicio humano, pero al mismo tiempo buscan máxima flexibilidad operativa, lo que choca con modelos comerciales que incorporan rechazos técnicos ante ciertos tipos de órdenes. El Departamento de Defensa aspira a desplegar estas herramientas también en redes clasificadas y entornos sensibles, con menos restricciones que las que ofrecen hoy los proveedores civiles.

Medios especializados señalan que el contrato en juego con Anthropic podría alcanzar hasta 200 millones de dólares, una cifra significativa en un momento en el que la empresa se prepara para un eventual salto a los mercados públicos y acaba de cerrar una megarronda de financiación. La posibilidad de que el Pentágono redirija estos fondos a otros proveedores —como OpenAI, Google o xAI, percibidos como más flexibles en sus políticas de uso militar— añade presión competitiva en un sector marcado por acuerdos multimillonarios y una fuerte dependencia de contratos gubernamentales.

Pese al tono de la amenaza, Anthropic ha reiterado públicamente que sigue “comprometida con poner la IA avanzada al servicio de la seguridad nacional de Estados Unidos”, al tiempo que defiende la necesidad de preservar ciertos límites técnicos para evitar abusos. Analistas de gobernanza de IA advierten de que el desenlace de esta disputa podría sentar un precedente sobre hasta qué punto las empresas tecnológicas pueden mantener salvaguardas éticas frente a las demandas de los gobiernos, especialmente en campos sensibles como las armas autónomas, la vigilancia y las operaciones de alto riesgo. Para el ecosistema de IA, el caso Anthropic‑Pentágono se perfila como un test clave del equilibrio entre seguridad, soberanía tecnológica y control democrático del despliegue militar de modelos avanzados.

Más en TECNOLOGÍA
Comentarios