Anthropic, la compañía detrás del chatbot Claude, ha revelado un aumento significativo en los intentos de replicar ilegalmente sus modelos de inteligencia artificial. Tras un minucioso análisis de direcciones IP, solicitudes de metadatos y patrones de uso, la empresa identificó a tres firmas chinas —DeepSeek, Moonshot y MiniMax— como responsables de más de 16 millones de interacciones fraudulentas con su sistema a través de 24.000 cuentas falsas. Estas acciones estarían dirigidas a mejorar los modelos de IA de estas empresas mediante prácticas conocidas como "ataques de destilación".

Los ataques de destilación son técnicas que permiten a los modelos más pequeños aprender de un modelo avanzado, en este caso, Claude. Aunque este método es comúnmente utilizado de forma legítima en la investigación y el desarrollo, Anthropic advierte que su uso indebido puede facilitar la obtención de beneficios tecnológicos sin el trabajo y los recursos que normalmente conlleva el desarrollo de algoritmos propios.

La empresa ha evidenciado que el comportamiento de las tres compañías chinas se aparta de los patrones habituales de uso, mostrando signos de automatización y una planificación sistemática para extraer información de Claude. En particular, se observó que DeepSeek utilizaba una sincronización en sus cuentas junto con patrones de solicitud y métodos de pago similares, lo que sugiere una acción coordinada para obtener detalles sobre el funcionamiento interno del modelo y utilizarlos en sus propios desarrollos.

Ante esta situación, Anthropic ha decidido reforzar sus medidas de seguridad, implementando herramientas que permiten detectar comportamientos sospechosos y mejorar la verificación de cuentas, especialmente aquellas asociadas a proyectos educativos o emergentes, que han sido identificadas como vías comunes para este tipo de actividades.