La Casa Blanca bloquea IA Claude; Pentágono la mantiene en campaña militar
El Post
Lo esencial: Horas después de que Donald Trump ordenara al gobierno de Estados Unidos dejar de usar Claude, la IA de Anthropic, el Ejército estadounidense recurrió a ella para planificar y ejecutar parte de los ataques contra Irán, según filtraciones coincidentes.
- Se sabe que Claude ya fue usada durante la operación de captura de Nicolás Maduro para el análisis de informes de inteligencia.
Panorama general: El episodio expone una paradoja política y operativa: mientras la Casa Blanca calificó a Anthropic como una empresa “IA de izquierda radical” y ordenó cesar su uso, el Pentágono mantuvo activos sus sistemas en plena campaña militar coordinada con Israel.
- Las relaciones entre Anthropic y el Pentágono se agriaron cuando la compañía se plantó ante las presiones del gobierno para quitar las salvaguardas de su inteligencia artificial que impiden el uso para ciertos cometidos, como la vigilancia masiva de ciudadanos o el desarrollo de armas autónomas.
Los hechos: Claude, modelo estrella de Anthropic, estuvo incrustada en casi todas las etapas previas al misil durante los bombardeos masivos sobre objetivos iraníes.
- Inteligencia: ayudó a sintetizar interceptaciones, imágenes de satélite, informes de campo y fuentes abiertas en resúmenes y evaluaciones para los comandantes.
- Targeting: colaboró en la identificación y priorización de objetivos según su valor estratégico, probabilidad de impacto, comportamiento esperado de las defensas iraníes y riesgo de daño colateral.
- Simulación: se usó para correr escenarios de “what if” antes de decidir cada oleada de ataque.
Contexto: En la víspera del ataque, Trump ordenó que todas las agencias federales “cesaran inmediatamente” el uso de la tecnología de Anthropic tras el conflicto sobre las salvaguardas que Anthropic se niega a levantar.
- La administración de Trump concedió al Departamento de Defensa hasta seis meses para “desengancharse” de esa tecnología.
Pentágono, IA: negocio versus ética. Ahora se acelera el debate sobre el uso de inteligencia artificial en la guerra, con las empresas más importantes del sector intentando balancear los beneficios de un suculento contrato gubernamental con las implicaciones éticas y morales que conlleva.
- En reemplazo a Anthropic, Elon Musk fue el primero en ofrecer su IA, Grok, sin ningún tipo de salvaguarda, pero Sam Altman no tardó mucho más y OpenAI confirmó este fin de semana que había llegado a un acuerdo con el gobierno, aunque prometiendo unas líneas rojas que en teoría el Pentágono no puede cruzar.
- La dependencia del Pentágono en Claude es evidente, y la migración a los nuevos sistemas será larga y laboriosa por lo que, mientras tanto, seguirá aprovechando las capacidades del producto de Anthropic.
Los números:
- Hasta 200 millones de dólares es el contrato firmado por el Departamento de Defensa con Anthropic para integrar sus modelos en tareas de inteligencia y planificación.
Entre líneas: Aunque los reportes coinciden en que Claude no “disparó” armas y que la decisión última sigue en manos humanas, expertos consultados por centros como Stimson advierten que será difícil trazar una frontera clara entre el apoyo de IA y las armas de facto autónomas.
La conclusión: El caso muestra cómo Claude, un modelo comercial concebido como asistente conversacional, terminó integrado en una “kill chain” (cadena de destrucción), que en doctrina militar, describe el proceso secuencial para neutralizar un objetivo: encontrar, fijar, rastrear, apuntar, atacar y evaluar el objetivo.
- No se sabe aún los límites de la prohibición de Trump, pero lo que es cierto es que Claude formó parte muy importante de la estrategia de EEUU en el ataque a Irán.
- Al parecer pronto será el turno de OpenAI de entrar al campo de batalla.
