El jueves pasado, el CEO de Anthropic, Dario Amodei, hizo una declaración sorpresiva sobre la decisión de la empresa de abandonar las negociaciones con el Departamento de Guerra. Aunque el Pentágono ya había hecho un uso extensivo de su modelo de inteligencia artificial generativa, comenzó a solicitar que Anthropic flexibilizara las restricciones en sus términos de uso. En un hecho inusual para la industria tecnológica, la compañía adoptó una postura inesperadamente a favor de la preservación humana, con Amodei señalando la vigilancia masiva y las “armas totalmente autónomas” como líneas que no estaba dispuesto a cruzar.
El CEO de OpenAI, Sam Altman, en cambio, no parece tener objeciones a esas condiciones. Recientemente recurrió a las redes sociales para presumir de un nuevo acuerdo de colaboración con el Gobierno de Estados Unidos en materia de defensa.
Ok, what kind of American Ai company are you? pic.twitter.com/7IJFMnpdrb
— Skely (@123skely) February 28, 2026
En todas nuestras interacciones, el Departamento de Guerra mostró un profundo respeto por la seguridad y el deseo de asociarse para lograr el mejor resultado posible”, publicó Altman el viernes por la noche. “Seguimos comprometidos a servir a toda la humanidad lo mejor que podamos. El mundo es un lugar complicado, caótico y, a veces, peligroso”.
Aunque ofreció pocos detalles, Altman aseguró que OpenAI mantiene principios respecto a la vigilancia y al entrenamiento de máquinas destinadas a matar, pero afirmó que sus condiciones coinciden lo suficiente con las del Departamento de Guerra como para cerrar el acuerdo. “Estamos pidiendo al Departamento de Guerra que ofrezca estos mismos términos a todas las compañías de IA”, escribió Altman, “que en nuestra opinión todos deberían estar dispuestos a aceptar. Hemos expresado nuestro firme deseo de que la situación se desescale y se aleje de acciones legales y gubernamentales, avanzando hacia acuerdos razonables”.
El compromiso de Altman con la “existencia en la Tierra” no genera demasiada confianza. La semana anterior, defendió de manera llamativa el elevado consumo energético de la IA. Sostuvo que, aunque el uso de agua por parte de OpenAI es considerable, entrenar a un ser humano hasta alcanzar un nivel comparable de desarrollo requiere “20 años de vida y toda la comida que consumes durante ese tiempo antes de volverte inteligente”.
En el extremo opuesto, aquello que inquietó a Anthropic en el Pentágono fue suficiente para irritar al resto de la administración. El secretario de Guerra, Pete Hegseth, amenazó con catalogar a Anthropic como un riesgo para la seguridad o impulsar nuevas leyes en represalia. Incluso provocó la habitual reacción airada del presidente Donald Trump.
Las personas a las que Altman acaba de entregar las llaves de OpenAI son las mismas que actualmente libran guerras ilegales desde América Latina hasta Oriente Medio. Apenas horas después de que Altman celebrara su nuevo acuerdo con el Departamento de Guerra, el Ejército de Estados Unidos inició una campaña de bombardeos contra Irán en coordinación con Israel. Según informes, la operación habría sido planificada durante meses sin autorización del Congreso.
“Puede que se pierdan las vidas de valientes héroes estadounidenses y que tengamos bajas”, dijo Trump en un mensaje en video difundido hoy. “Eso suele ocurrir en la guerra”. De acuerdo con agencias como Al Jazeera, una de las bombas impactó en una escuela primaria femenina, con al menos 50 víctimas civiles y una cifra que continúa en aumento. Sean cuales sean las nuevas condiciones de Altman sobre el uso de la IA en sistemas de muerte autónomos, es posible que no tardemos en comprobar sus consecuencias.
Este artículo ha sido traducido de Kotaku US por Agustín Azcarate. Aquí podrás encontrar la versión original.