La Nave Digital

Trump ordena al Pentágono dejar de usar Claude, pero bombardea Irán

Trump ordena al Pentágono dejar de usar Claude, pero bombardea Irán

Este 28 de febrero, Israel y Estados Unidos bombardearon Irán mientras se desarrollaba una controversia en torno al uso de inteligencia artificial en operaciones militares. Pese a una orden de Trump de no utilizar Claude, la herramienta fue crucial en el ataque.

La orden de Trump y la respuesta del Pentágono

Horas antes del ataque, Trump prohibió el uso de Claude y otras herramientas de inteligencia artificial de Anthropic en operaciones militares. Sin embargo, el Pentágono ignoró esta directiva, evidenciando la estrecha integración de Claude en sus sistemas operativos.

El contexto en esta disputa se originó cuando Estados Unidos buscaba una IA que se integrara con sus sistemas de defensa, y Anthropic ofreció la suya a un costo de un dólar, resultando en un contrato de 200 millones. Aunque Claude ha sido fundamental en procedimientos de análisis de datos masivos, fue diseñada con ciertas restricciones que preocupaban al Departamento de Defensa y a Trump.

La controversia y el futuro de Claude

Desde la semana pasada, el Pentágono exigió que Anthropic entregara una versión de su IA sin las limitaciones impuestas, amenazándola con acciones legales si no cumplía. La respuesta de Anthropic fue defensiva, lo que llevó a Trump a calificar a la compañía como una “empresa de inteligencia artificial de izquierda radical”.

Aunque Trump anunció el fin de la colaboración con Anthropic y la restricción del uso de su IA, el bombardeo contra Irán se llevó a cabo con el apoyo del mismo sistema que se consideraba prohibido. Analistas informaron que el ataque se planeó utilizando Claude para evaluar situaciones y definir objetivos. La dependencia del Pentágono hacia Claude parece dificultar su eliminación por completo de los sistemas en un corto plazo.

Se espera que la eliminación de Claude del software militar tome aproximadamente seis meses. Mientras tanto, OpenAI ha comenzado a posicionarse como un nuevo proveedor de inteligencia artificial, asegurando que su sistema podría ser útil conforme a requisitos legales previos, aunque manteniendo restricciones morales similares a las que estableció Anthropic.

La Nave Digital
administrator

    Related Articles

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *