Washington — El Secretario de Defensa, Pete Hegseth, dio al CEO de Anthropic un plazo hasta el viernes para permitir el uso militar sin restricciones de su tecnología de inteligencia artificial, bajo amenaza de perder su contrato con el gobierno federal, según una fuente conocedora del encuentro realizado el martes.
Anthropic, creadora del chatbot Claude, es la única gran empresa tecnológica que aún se resiste a integrar sus modelos en la nueva red interna de inteligencia artificial militar. Su director ejecutivo, Dario Amodei, ha expresado su preocupación ética sobre aplicaciones autónomas de la IA en drones armados o en programas de vigilancia masiva capaces de rastrear la disidencia.
Funcionarios del Departamento de Defensa advirtieron que podrían aplicar la Ley de Producción de Defensa para obtener autoridad plena sobre los productos de Anthropic, incluso si la compañía no está de acuerdo con su uso. Este conflicto evidencia el creciente debate sobre cómo el Pentágono adopta la IA para fines de seguridad nacional y el riesgo de eliminar límites éticos frente al uso de fuerza letal o vigilancia estatal.
Durante la reunión, Amodei mantuvo firmes dos límites: no colaborar en operaciones militares totalmente autónomas ni en vigilancia de ciudadanos estadounidenses. Sin embargo, el Pentágono sostiene que no puede aceptar “restricciones ideológicas” que limiten sus operaciones legales.
El pasado verano, el Departamento de Defensa otorgó contratos de 200 millones de dólares a cuatro compañías de IA: Anthropic, Google, OpenAI y xAI, esta última de Elon Musk. Anthropic fue la primera en obtener autorización para trabajar en redes clasificadas, pero xAI ya prepara la integración de su chatbot Grok a la red GenAI.mil, el sistema de inteligencia artificial central del Pentágono.
Hegseth reiteró en un discurso en Texas que su meta es implementar sistemas de IA militares “sin restricciones ideológicas”. Además, anunció la incorporación de Grok a GenAI.mil pocos días después de que fuera criticado por la generación de imágenes falsas altamente sexualizadas.
Anthropic, por su parte, afirmó en un comunicado que las conversaciones con el Departamento de Defensa continúan “de buena fe” para conciliar los requisitos de seguridad nacional con el uso responsable de sus modelos.
La tensión entre la compañía y el gobierno de Donald Trump se arrastra desde hace tiempo. Anthropic ha abogado por regulaciones más estrictas a la IA y criticado propuestas de flexibilizar controles de exportación de chips a China. En respuesta, el asesor tecnológico de Trump, David Sacks, acusó a la empresa de “alarmismo regulatorio”.
Analistas como Owen Daniels, de la Universidad de Georgetown, sostienen que Anthropic corre el riesgo de perder influencia frente a competidores dispuestos a acatar sin condiciones las políticas del Pentágono. Mientras, expertos como Amos Toh del Centro Brennan de la Universidad de Nueva York piden al Congreso mayor supervisión ante el rápido avance del uso militar de la inteligencia artificial.
“Toh advirtió que la ley no evoluciona al mismo ritmo que la tecnología, y que el Departamento de Defensa no debería tener un cheque en blanco”, concluyó.




