La empresa estadounidense de inteligencia artificial (IA) Anthropic se encuentra en conflicto con el presidente Donald Trump, quien ha ordenado que se suspenda el uso de su modelo Claude en las entidades gubernamentales debido a una negativa a permitir su uso militar sin restricciones por parte del Pentágono.
Conflicto entre Anthropic y el Departamento de Defensa
La situación se desencadenó cuando el Departamento de Defensa de EE. UU. dio un plazo a Anthropic para que aceptara el uso ilimitado de su tecnología, según informó un alto funcionario a la agencia AFP. Este requerimiento, que fue discutido en una reunión entre el director ejecutivo de Anthropic, Darío Amodei, y el secretario de Defensa, Pete Hegseth, fue considerado por la empresa como una violación de sus lineamientos éticos.
Ante la negativa de Anthropic, que afirmó no poder cumplir con las solicitudes del Pentágono, el presidente Trump tomó medidas drásticas. El viernes, ordenó a todas las agencias federales que cesaran inmediatamente el uso de la tecnología de Anthropic, señalando que el país no necesita ni desea esa herramienta. Las agencias, incluido el Departamento de Defensa, tendrán un período de eliminación gradual de seis meses para sus productos.
Reacciones y consecuencias de la orden presidencial
El impacto de esta orden se ha extendido, pues el Departamento del Tesoro también anunció que dejará de utilizar los productos de Anthropic, alineándose con la decisión del presidente Trump, quien enfatizó que las empresas privadas no dictarán las condiciones en materia de seguridad nacional.
En respuesta a esta prohibición, Anthropic indicó que impugnará legalmente cualquier designación que la califique como un riesgo para la cadena de suministro, y abogó por la necesidad de que los líderes encuentren un consenso, evitando así las exigencias del Departamento de Defensa de utilizar sus modelos en la vigilancia interna y en operaciones de ataque autónomas.
- El secretario de Defensa, Pete Hegseth, criticó a Anthropic por su postura, acusándola de arrogancia y traición.
- En contraste, OpenAI, competidor de Anthropic, anunció un acuerdo con el Pentágono para usar sus modelos de IA con controles similares.
Además, un grupo de empleados de Google DeepMind y OpenAI publicó una carta abierta pidiendo a sus líderes que apoyaran a Anthropic en su disputa legal y que se mantuvieran unidos frente a la presión del gobierno.
Preocupaciones éticas sobre el uso de IA
La discusión sobre el uso de IA en aplicaciones militares plantea profundas preocupaciones éticas sobre la supervisión humana y la vigilancia estatal, lo que ha llevado a una fuerte controversia en la comunidad tecnológica.

