Saltar al contenido

Anthropic desafía la exigencia del Gobierno de EE. UU. de permitir que su IA mate de forma autónoma

Afortunadamente, esto parece revelar por fin la línea que la empresa de IA generativa no está dispuesta a cruzar.

No hay héroes en el mundo de la IA generativa, aunque parece que el CEO de Anthropic, Dario Amodei, sí tiene al menos algunos límites que no está dispuesto a traspasar cuando se trata del uso militar de la inteligencia artificial de su compañía. A pesar de que Claude, la IA de Anthropic, ya se utiliza de forma amplia por parte del Departamento de Guerra para análisis de inteligencia, operaciones cibernéticas y tareas similares, según informó Reuters (vía PC Gamer), la empresa ha recibido presiones durante meses por parte del Gobierno de Estados Unidos para que permita también su uso en vigilancia masiva dentro del país y en armamento completamente autónomo; es decir, para espiar a ciudadanos estadounidenses y para que el sistema pueda “decidir” matar sin intervención humana. Ahora, Amodei ha emitido un comunicado en el que afirma que su compañía no dará marcha atrás.

El comunicado deja claro que Anthropic no se opone al uso de su IA por parte del ejército estadounidense. En él se explica que “Claude está ampliamente desplegado en el Departamento de Guerra y otras agencias de seguridad nacional para aplicaciones de misión crítica, como análisis de inteligencia, modelado y simulación, planificación operativa, operaciones cibernéticas y más”. Amodei también destaca que ha rechazado contratos por cientos de millones de dólares con el Partido Comunista Chino por considerar que podrían emplearse con fines militares contra Estados Unidos. Sin embargo, existe una línea roja. Aunque señala que “nunca hemos planteado objeciones a operaciones militares concretas ni intentado limitar el uso de nuestra tecnología de forma ad hoc”, lo que no permitirá es que su producto se utilice para espiar a ciudadanos estadounidenses ni que quede completamente a cargo de sistemas de armamento.

Por más absurdo que pueda sonar escuchar a un CEO afirmar que no tiene problema en que su IA generativa (propensa a errores y alucinaciones) se utilice para espiar a ciudadanos extranjeros y forme parte de armas parcialmente autónomas, pero que luego trace una objeción moral ante ciertos ajustes, lo cierto es que se trata de una postura desafiante frente a la presión del Gobierno de Estados Unidos, proveniente tanto del Departamento de Guerra como del Pentágono. Esa presión busca que se eliminen las salvaguardas del sistema, con la advertencia de que Claude sería retirado de operaciones militares si estas se mantienen, lo que implicaría la pérdida de contratos. Amodei asegura que a Anthropic se le ha comunicado que podría ser catalogada como “riesgo para la cadena de suministro” si no cede, una denominación que (según afirma) está “reservada para adversarios de Estados Unidos y nunca antes se había aplicado a una empresa estadounidense”. Además, señala que el Gobierno podría invocar la Ley de Producción de Defensa para forzar la eliminación de dichas salvaguardas.

“En cualquier caso”, afirma Amodei, “estas amenazas no cambian nuestra postura: no podemos, en conciencia, acceder a su solicitud”.

Quizás resulte revelador que Amodei sea consciente de que una IA con tendencia a generar respuestas erróneas no puede colocarse jamás en control autónomo de armamento, aunque también resulta inquietante comprobar hasta qué punto este conjunto de modelos de lenguaje ya está entrelazado con el ámbito militar.

Como reacción, empleados de Google y OpenAI (dos de los principales competidores de Anthropic) han firmado una carta abierta en apoyo a la compañía frente a las amenazas del Departamento de Guerra, afirmando que “permanecemos unidos para seguir rechazando las actuales exigencias del Departamento de Guerra de permitir el uso de nuestros modelos para vigilancia masiva doméstica y para matar de forma autónoma sin supervisión humana”.

Este artículo ha sido traducido de Kotaku US por Agustín Azcarate. Aquí podrás encontrar la versión original.

You May Also Like