Amenaza a la IA
El Pentágono pone a Anthropic en la lista negra por negarse a que su IA sirva para vigilar a los ciudadanos y crear armas autónomas
La administración Trump cumple con su amenaza y designa a la empresa de inteligencia artificial, que hasta ahora servía para procesar la información clasificada del Ejército, como un riesgo para la cadena de suministro "con efecto inmediato"

El secretario de Defensa de EEUU, Pete Hegseth. / Cristobal Herrera-Ulashkevich / EFE

La administración Trump ha cumplido con su amenaza. El Departamento de Defensa ha designado a la empresa estadounidense de inteligencia artificial Anthropic como un riesgo para la cadena de suministro, una medida de represalia sin precedentes que obligará a otros contratistas del Ejército a dejar de utilizar sus servicios.
Hasta ahora, el Pentágono había utilizado Claude, el poderoso modelo de IA desarrollado por la start-up, para gestionar su información clasificada. Los altos rangos estaban muy contentos con esta herramienta. Hasta que tocó negociar las cláusulas de su uso militar. El rebautizado como Departamento de Guerra quería tener carta blanca, pero Anthropic puso dos límites: no utilizar su IA para la vigilancia masiva de los ciudadanos estadounidenses ni para la creación de armas autónomas.
La Casa Blanca rechazó rápidamente la posición de Anthropic al considerarla demasiado restrictiva. El disgusto fue tal, que Donald Trump cargó contra la joven compañía, tachándola de woke, por no plegarse a su voluntad. El Secretario de Defensa, Pete Hegseth, amenazó a la firma con ponerla en la lista negra si el pasado viernes no cedía.
Se trata de un principio fundamental: que el ejército pueda utilizar la tecnología para todos los fines legales. El ejército no permitirá que un proveedor se interponga en la cadena de mando restringiendo el uso legal de una capacidad crítica y poniendo en peligro a nuestros combatientes
Riesgo mortal
Sin embargo, el director ejecutivo de Anthropic, Dario Amodei, no cedió. La start-up, que nació como una escisión de OpenAI para centrarse en el desarrollo de una IA más ética, considera que utilizar estos sistemas generativos para conducir armas autónomas que identifiquen y disparen a sus objetivos sin supervisión humana es un peligro demasiado grande. Si la IA generativa puede fallar al dar respuesta a preguntas de los usuarios e inventarse cosas —alucinar, en la jerga del sector—, el riesgo de que ocurra algo similar en el campo de batalla es mucho mayor.
Así, el Pentágono confirmó el jueves que "ha informado oficialmente a la dirección de Anthropic de que la empresa y sus productos se consideran un riesgo para la cadena de suministro, con efecto inmediato". "Se trata de un principio fundamental: que el ejército pueda utilizar la tecnología para todos los fines legales. El ejército no permitirá que un proveedor se interponga en la cadena de mando restringiendo el uso legal de una capacidad crítica y poniendo en peligro a nuestros combatientes", reza su comunicado.

Dario Amodei, cofundador y director ejecutivo de Anthropic, la empresa de IA responsable de los modelos Claude. / Ruhani Kaur / Bloomberg
Estados Unidos ha confirmado que Claude fue una herramienta crucial en la operación del ejército para secuestrar al presidente venezolano Nicolás Maduro y se sospecha que también habría sido utilizada en los recientes ataques contra Irán que han logrado decapitar a la cúpula del régimen de los ayatolás, entre ellos el líder supremo, Alí Jamenei, según The Wall Street Journal.
Anthropic acudirá a los tribunales
Esta dura sanción, habitualmente reservada a compañías extranjeras como la china Huawei, supone uno golpe "de alcance limitado" para Anthropic, ha indicado la compañía. No solo hace volar por los aires el contrato de 200 millones de dólares que tenía con el Gobierno de EEUU, sino que además obliga a todas las empresas que hacen negocios con el Ejército a no utilizar Claude. Las empresas estadounidenses sí podrán acceder a esa IA en otros proyectos no relacionados con el Pentágono.
La decisión no es legalmente válida y no vemos otra opción que impugnarla ante los tribunales
Anthropic ha reiterado que la decisión de la administración Trump "no es legalmente válida y no vemos otra opción que impugnarla ante los tribunales". El presidente ha establecido un periodo de transición de seis meses para que el ejército elimine gradualmente el uso de Claude.
Múltiples expertos han advertido que el uso de la IA "para todos los fines legales" que exige el Pentágono es un cheque en blanco, pues por ahora no hay regulación alguna que limite la aplicación de esos programas en entornos como el militar.

Protesters hold signs that read 'KILLED by ICE in Minneapolis Alex Pretti' with his picture 'Worst of the worst Liam Conejo Ramos 5 years old' with his picture in his bunny hat. / Gina M Ran / Europa Press
Deriva autoritaria en EEUU
La ley estadounidense sí impide espiar a sus propios ciudadanos. Sin embargo, y como ha denunciado el propio Amodei, el Gobierno de Trump está aplicando "una dinámica en la que la vigilancia masiva doméstica está adelantándose a la ley". Y es que agencias como el Servicio de Inmigración y Control de Aduanas (ICE) están comprando datos de los ciudadanos a data brokers, empresas que se centran en recopilar el rastro de información que dejan en Internet. Con la ayuda de compakñías como Palantir, esos datos se transforman en la inteligencia que está permitiendo la identificación, caza y deportación de miles de personas migrantes, muchas de ellas ciudadanos con permiso de residencia.
Anthropic ha decidido no participar en esa deriva autoritaria. Según filtró The Information, Amodei dijo a su equipo que las represalias del Pentágono se debían a que "no hemos elogiado a Trump al estilo dictador".
No hemos elogiado a Trump al estilo dictador
Su lugar lo ha ocupado la empresa desarrolladora de ChatGPT. Tras el destierro de su gran rival, el director ejecutivo de OpenAI, Sam Altman, se apresuró a cerrar un contrato con el Pentágono que le permitirá utilizar sus modelos de IA para la gestión de su información clasificada. La compañía ha aseguró no dará carta blanca al Ejército. Sin embargo, medios especializados que han revisado el contrato contradicen esa versión. En privado, Amodei ha acusado a OpenAI de participar en un "teatro" y de anunciar medidas de seguridad que "no funcionan en su mayoría". A diferencia de Anthropic, el presidente de OpenAI, Greg Brockman, ha donado 25 millones de dólares al comité de acción política de Trump.
Suscríbete para seguir leyendo
- El cardiólogo Aurelio Rojas destaca los beneficios del magnesio: 'Ayuda a ganar músculo y mejorar el rendimiento físico
- Tim Spector, experto en microbiota: 'El café de la mañana puede cuidar la salud intestinal y el bienestar general
- Apagón digital: este sábado muchas familias estarán sin móvil durante unas horas
- Rusia incluye a la española Oesía entre posibles objetivos militares por su actividad en Ucrania
- Messi proyecta construir tres casas para sus hijos en Castelldefels
- Pere Puig recibe la eutanasia y se convierte en el segundo paciente psiquiátrico de Catalunya en acceder a la muerte digna en un mes
- La AP-7 estrenará el primer límite de velocidad dinámico con inteligencia artificial en España
- El 20% de los diagnósticos de cáncer de mama son en realidad lesiones precancerosas: 'Se trata innecesariamente a un número muy alto de mujeres