Anthropic Planta Cara al Pentágono, OpenAI Recoge el Testigo: La IA Militar Ya Tiene Precio

Hay semanas en las que la realidad supera a cualquier guión de ciencia ficción. Y esta última semana de febrero de 2026 ha sido una de esas. Anthropic planta cara al Pentágono, Trump les llama “chiflados de izquierdas” y OpenAI se ofrece encantada a llenar el hueco. Si esto fuera una serie de Netflix, dirías que se les ha ido la mano con el guión. Pero no, es la vida real.

El origen: Anthropic dice “hasta aquí”

Todo empezó cuando se filtró que el software Claude de Anthropic se usó en la operación militar estadounidense que resultó en la captura del presidente venezolano Nicolás Maduro en enero. Sí, has leído bien: una IA ayudó a secuestrar a un presidente.

El Secretario de Defensa Pete Hegseth dio un ultimátum a Anthropic: o relajas tus restricciones sobre cómo usamos tu IA, o pierdes el contrato. Las exigencias concretas eran dos: permitir vigilancia masiva doméstica y habilitar armas autónomas sin intervención humana.

La respuesta de Dario Amodei, CEO de Anthropic, fue clara: “No podemos en buena conciencia acceder a estas demandas”. Básicamente, le dijo al Pentágono que no iba a quitar las barreras éticas de su IA. En un mundo donde casi todas las tech se arrodillan ante los contratos gubernamentales, Anthropic dijo que no.

Trump entra en escena (como siempre)

La respuesta de la Casa Blanca fue predecible pero no por ello menos impactante. Trump publicó en Truth Social llamando a Anthropic “chiflados de izquierdas” y ordenó a todas las agencias federales dejar de usar su tecnología de inmediato, dando al Pentágono seis meses para eliminar Claude donde ya estaba integrado en plataformas militares.

Piénsalo un momento: el gobierno de la mayor potencia mundial vetando a una empresa de IA porque se niega a quitar sus salvaguardas éticas. Esto no es una película de los 80. Es 2026.

OpenAI: “¿Que Anthropic no quiere? Yo sí”

Y aquí es donde la historia se pone realmente interesante. Horas después de que Trump vetara a Anthropic, Sam Altman anunció que OpenAI había cerrado un acuerdo con el Pentágono. Horas. No días, no semanas. Horas.

Altman justificó el movimiento diciendo que el Departamento de Defensa demostró un “profundo respeto por la seguridad” y que acordaron no usar su tecnología para “vigilancia masiva doméstica” ni “sistemas de armas autónomas”. Exactamente las mismas líneas rojas que Anthropic intentaba defender… pero esta vez como promesas, no como barreras técnicas.

“Seguimos comprometidos con servir a toda la humanidad lo mejor que podamos”, dijo Altman. “El mundo es un lugar complicado, desordenado y a veces peligroso”. Traducción: el dinero del Pentágono también es dinero.

La ironía que duele

Recordemos que Anthropic fue fundada por ex-ejecutivos de OpenAI que se fueron precisamente por desacuerdos sobre seguridad y ética. Dario Amodei dejó OpenAI porque creía que no se tomaban la seguridad suficientemente en serio. Y ahora, años después, OpenAI recoge exactamente el contrato militar que Anthropic rechazó por motivos éticos.

El círculo se ha completado de la forma más retorcida posible.

¿Hay buenos y malos aquí?

Es tentador pintar a Anthropic como el héroe y a OpenAI como el villano, pero la realidad es más turbia:

  • Anthropic plantó cara, sí. Pero su IA ya se había usado en una operación militar que resultó en el secuestro de un presidente. Las barreras éticas llegaron, como mínimo, tarde.
  • OpenAI tiene un acuerdo con “promesas” de no hacer ciertas cosas. Pero son promesas entre un gobierno y una empresa, no restricciones técnicas. La diferencia importa.
  • El Pentágono simplemente cambió de proveedor como quien cambia de compañía de teléfono. Si tu IA tiene demasiados escrúpulos, hay otra esperando en la cola.

Lo que de verdad debería preocuparnos

Más allá del drama corporativo, esta historia expone algo inquietante: las salvaguardas éticas de la IA son tan fuertes como la voluntad de la empresa que las mantiene. Si una empresa dice “no”, simplemente contratan a la siguiente.

No existe regulación internacional vinculante sobre el uso militar de IA. No hay un equivalente a los acuerdos de no proliferación nuclear para la inteligencia artificial. Lo único que hay son las políticas internas de empresas privadas — y como acabamos de ver, esas son perfectamente intercambiables.

Mientras tanto, Israel ya usa sistemas como “Lavender”, “The Gospel” y “Where’s Daddy?” para generar listas de objetivos en Gaza usando vigilancia masiva e IA. El futuro distópico no es futuro. Ya está aquí.

Mi opinión

Anthropic ha hecho lo correcto. Tarde, pero lo ha hecho. El problema es que “hacer lo correcto” en este contexto significa perder un contrato millonario y ser vetado por el gobierno más poderoso del planeta. No es exactamente un incentivo para que otras empresas sigan el ejemplo.

Y Sam Altman… bueno. Altman ha demostrado una vez más que su brújula moral apunta hacia donde sopla el viento del dinero. “Servir a toda la humanidad” suena bonito hasta que te das cuenta de que incluye servir misiles guiados por IA.

Lo más escalofriante de todo: un investigador de seguridad de Anthropic dimitió en febrero diciendo que “el mundo está en peligro” y que dentro de la propia empresa veía constantemente presiones para dejar de lado los valores. Si el que está dentro de la empresa “buena” dice eso, imagínate lo que pasa dentro de las demás.

Bienvenidos a 2026, donde la IA ya tiene moral… pero es opcional.

Aviso Legal · Política de Privacidad · Política de Cookies
© 2026 KMOOPS — Consultoría IT, IA & Automatización
Scroll to Top