Anthropic alerta de un fraude de IA china: DeepSeek, Moonshot AI y MiniMax, señaladas por “destilar” Claude
Estados Unidos amenaza con vetar a Anthropic por negarse a que su IA sirva para espiar y crear armas autónomas

Dario Amodei, CEO de Anthropic / Ruhani Kaur / BLOOMBERG

compañía de inteligencia artificial Anthropic ha denunciado una "campaña de ataques de destilación" (entrenar modelos de IA menos potentes a partir de otros más fuertes) desde DeepSeek, Moonshot AI y MiniMax, tres laboratorios de IA de China a los que acusa de técnicas fraudulentas para plagiar a su modelo Claude.
"Hemos identificado campañas a escala industrial por parte de DeepSeek, Moonshot AI y MiniMax para extraer ilícitamente las capacidades de Claude para mejorar sus propios modelos", ha denunciado Anthropic en las últimas horas en un comunicado.
Según Anthropic, estos tres laboratorios de inteligencia artificial (IA) con sede en China mantuvieron más de 16 millones de interacciones con Claude a través de aproximadamente 24.000 cuentas fraudulentas, en violación de sus términos de servicio y de las restricciones de acceso regionales.
"Ataques de destilación"
La compañía con sede en San Francisco describe estas técnicas como "ataques de destilación", que consisten en entrenar un modelo menos capaz basándose en los resultados de uno más fuerte.

Dario Amodei en 2023. / TechCrunch Disrupt. CC BY 2.0.
La destilación es un método de entrenamiento legítimo y ampliamente utilizado en el sector de la IA, pero también puede usarse con fines ilícitos por parte de competidores que la usan para adquirir capacidades poderosas de otros laboratorios en mucho menos tiempo y menor precio de lo que les llevaría desarrollarlas de forma independiente.
Anthropic denuncia que este ha sido un caso de destilación "ilícita" porque usó "cuentas fraudulentas y servicios de proxy", ocultando la ubicación para acceder a Claude a gran escala sin ser detectados.
"El volumen, la estructura y el enfoque de los 'prompts' eran distintos de los patrones de uso normales, lo que refleja una extracción de capacidades deliberada en lugar de un uso legítimo", argumenta la compañía.
Alternativas "seguras" a la censura
El informe también apunta que la destilación ilícita por parte de DeepSeek, homónimo de OpenAI en China, se fundamentó en extraer el razonamiento interno de Claude para crear "alternativas seguras a la censura para consultas políticamente sensibles".
Anthropic advierte de que los modelos destilados ilícitamente "carecen de las salvaguardas necesarias" para impedir "posibles desarrollos de armas biológicas o actividades cibernéticas maliciosas", lo que supone un "riesgo significativo para la seguridad nacional".
- Irán afirma que dejará de atacar a los países del Golfo si no es atacado desde allí
- Detectan explosivos en los objetos lanzados contra la residencia del alcalde de Nueva York
- Encuesta CEO: Trump hace caer la simpatía de los catalanes hacia Estados Unidos por debajo de la de China
- Inquietud en el Ejército de EEUU ante las limitadas existencias de misiles antiaéreos en plena guerra contra Irán
- Así son los helicópteros Black Hawk del Ejército de EEUU que han sobrevolado Mallorca
- Londres dice que el dron que alcanzó la base británica en Chipre no fue lanzado desde Irán
- EEUU y países del Golfo piden ayuda a Ucrania para frenar a los drones iraníes Shahed
- Israel fuerza la evacuación del sur del Líbano y eleva los temores a una nueva ocupación