Saltar al contenido principalSaltar al pie de página

Inteligencia artificial

Estados Unidos amenaza con vetar a Anthropic por negarse a que su IA sirva para espiar y crear armas autónomas

El Pentágono amenaza con bloquear a la start-up que desarrolla el modelo de IA generativa Claude, vital para la gestión de los sistemas clasificados del ejército, mientras cierra acuerdos con otras compañías como OpenAI, Google o xAI, de Elon Musk

El presidente de EEUU, Donald Trump, y el secretario de Guerra, Pete Hegseth.

El presidente de EEUU, Donald Trump, y el secretario de Guerra, Pete Hegseth. / AARON SCHWARTZ / CONTACTO / EUROPA PRESS

Carles Planas Bou

Carles Planas Bou

Barcelona
Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

El Gobierno de Donald Trump ha declarado la guerra a uno de sus principales socios. Se trata de Anthropic, la empresa tecnológica cuya inteligencia artificial sirve al ejército de Estados Unidos. Su modelo, Claude, fue utilizado durante la operación militar para secuestrar al presidente de Venezuela, Nicolás Maduro.

El Departamento de Defensa, encabezado por Pete Hegseth, ha amenazado con romper sus relaciones comerciales con la start-up, después que esta haya puesto límites al uso su chatbot de IA al establecer que no puede servir para la vigilancia masiva de los ciudadanos estadounidenses ni para desarrollar armas autónomas letales.

Claude, rival directa del popular ChatGPT (propiedad de OpenAI), es el único modelo de IA generativa que el Pentágono utiliza para gestionar sus sistemas clasificados como secretos. La relación entre ambas partes había sido hasta ahora idílica. Tanto, que EEUU le concedió un contrato militar por valor de 200 millones de dólares.

Dario Amodei en 2023.

Dario Amodei en 2023. / TechCrunch Disrupt. CC BY 2.0.

Amenaza directa

A lo largo de los últimos meses, Anthropic ha negociado con Hegseth y sus subordinados las condiciones en las que el ejército puede utilizar Claude. La firma, una escisión de OpenAI que se fundó con la intención de promover un desarrollo de la IA más ético, se ha abierto a flexibilizar sus condiciones de uso actuales. Sin embargo, ha rechazado que su herramienta sirva para el espionaje social masivo o para crear armas capaces de disparar y matar sin intervención humana, sistemas conocidos como "robots asesinos" o killer robots.

La firmeza de Anthropic ha disgustado tanto a la administración Trump que ahora amenaza no solo con romper ese contrato, sino con designar la compañía como un "riesgo para la cadena de suministro", una sanción habitualmente reservada para adversarios extranjeros. De aplicarse, se obligaría a todas las empresas que tienen vínculos con el ejército a no utilizar Claude. Para Anthropic, que ingresa unos 14.000 millones de dólares anuales, eso podría suponer un notable golpe a su negocio.

"Será muy complicado desenredar todo esto, y nos aseguraremos de que paguen un precio por obligarnos a tomar esta medida", ha indicado un alto funcionario del Departamento de Defensa en declaraciones a Axios.

El jefe del Pentágono, Pete Hegseth

El jefe del Pentágono, Pete Hegseth / Europa Press/Contacto/Yuri Gripas/POOL

Rechazo a las dudas éticas

El director ejecutivo de Anthropic, Dario Amodei, teme que la IA pueda servir propulsar la vigilancia masiva y la creación de armas autónomas, cuya existencia ha sido denunciada por distintas organizaciones como una amenaza directa a los derechos humanos. Para el Gobierno trumpista, la posición de la compañía es excesivamente restrictiva y podría comprometer las acciones del ejército estadounidense.

El Pentágono también ha llegado a un acuerdo con OpenAI, Google y xAI, de Elon Musk, para utilizar "eliminar sus salvaguardias" y permitir que sus modelos de IA "para todos los casos de uso legales", informa The Wall Street Journal. No obstante, y a diferencia de Claude, ChatGPT, Gemini y Grok se utilizarán en sistemas no clasificados.

Suscríbete para seguir leyendo