Este 28 de febrero, Israel y Estados Unidos bombardearon Irán mientras se desarrollaba una controversia en torno al uso de inteligencia artificial en operaciones militares. Pese a una orden de Trump de no utilizar Claude, la herramienta fue crucial en el ataque.
La orden de Trump y la respuesta del Pentágono
Horas antes del ataque, Trump prohibió el uso de Claude y otras herramientas de inteligencia artificial de Anthropic en operaciones militares. Sin embargo, el Pentágono ignoró esta directiva, evidenciando la estrecha integración de Claude en sus sistemas operativos.
El contexto en esta disputa se originó cuando Estados Unidos buscaba una IA que se integrara con sus sistemas de defensa, y Anthropic ofreció la suya a un costo de un dólar, resultando en un contrato de 200 millones. Aunque Claude ha sido fundamental en procedimientos de análisis de datos masivos, fue diseñada con ciertas restricciones que preocupaban al Departamento de Defensa y a Trump.
La controversia y el futuro de Claude
Desde la semana pasada, el Pentágono exigió que Anthropic entregara una versión de su IA sin las limitaciones impuestas, amenazándola con acciones legales si no cumplía. La respuesta de Anthropic fue defensiva, lo que llevó a Trump a calificar a la compañía como una “empresa de inteligencia artificial de izquierda radical”.
Aunque Trump anunció el fin de la colaboración con Anthropic y la restricción del uso de su IA, el bombardeo contra Irán se llevó a cabo con el apoyo del mismo sistema que se consideraba prohibido. Analistas informaron que el ataque se planeó utilizando Claude para evaluar situaciones y definir objetivos. La dependencia del Pentágono hacia Claude parece dificultar su eliminación por completo de los sistemas en un corto plazo.
Se espera que la eliminación de Claude del software militar tome aproximadamente seis meses. Mientras tanto, OpenAI ha comenzado a posicionarse como un nuevo proveedor de inteligencia artificial, asegurando que su sistema podría ser útil conforme a requisitos legales previos, aunque manteniendo restricciones morales similares a las que estableció Anthropic.

