La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude

  • Anthropic acusa a DeepSeek, Moonshot y MiniMax de extraer capacidades de Claude mediante destilación
  • Se habrían utilizado más de 16 millones de consultas y unas 24.000 cuentas fraudulentas

Durante meses hemos hablado de la carrera entre Estados Unidos y China por dominar la inteligencia artificial como si se tratara únicamente de quién entrena el modelo más potente o lanza antes la próxima versión. Pero el pulso empieza a desplazarse a otro terreno más delicado: el de las reglas del juego. Cuando un laboratorio acusa a otro de extraer capacidades de su sistema para acelerar el propio desarrollo, la discusión va más allá de lo técnico. Eso es exactamente lo que acaba de hacer Anthropic al denunciar campañas de “destilación” contra su modelo Claude.

La denuncia. En un texto publicado este lunes, la compañía afirma haber detectado “campañas a escala industrial” destinadas a extraer capacidades de Claude. Según su versión, las actividades atribuidas a DeepSeek, Moonshot y MiniMax habrían implicado más de 16 millones de consultas, interacciones de pregunta y respuesta, y se habrían canalizado a través de unas 24.000 cuentas fraudulentas, en violación de sus términos de servicio y de sus restricciones regionales de acceso.

La carrera y la sospecha. El anuncio de la firma liderada por Darío Amodei se produce en un contexto de tensión creciente alrededor del progreso de la IA china. Recordemos que DeepSeek alteró el panorama de Silicon Valley hace un año con el lanzamiento de R1, un modelo competitivo que se presentó como desarrollado a una fracción del coste de alternativas estadounidenses. El impacto fue inmediato en los mercados y reavivó el debate político en Washington sobre la ventaja tecnológica frente a China.

Destilar no siempre es trampa. La propia Anthropic reconoce que la destilación es una técnica habitual en el sector. Consiste, en términos simples, en entrenar un modelo menos capaz utilizando las respuestas generadas por uno más potente, algo que los grandes laboratorios emplean para crear versiones más pequeñas y económicas de sus propios sistemas. El problema, según la compañía, aparece cuando esa práctica se utiliza para “adquirir capacidades poderosas de otros laboratorios en una fracción del tiempo y a una fracción del costo” que supondría desarrollarlas de forma independiente. En ese caso, la destilación dejaría de ser una optimización interna para convertirse, siempre según Anthropic, en una forma de aprovechar el trabajo ajeno.

Patrón reconocible. Los tres laboratorios habrían utilizado cuentas fraudulentas y servicios proxy para acceder a Claude a gran escala mientras intentaban evitar los sistemas de detección. La compañía detalla infraestructuras, lo que llama “hydra cluster”, redes extensas de cuentas que distribuyen el tráfico entre su API y plataformas en la nube de terceros, de modo que cuando una cuenta era bloqueada, otra ocupaba su lugar. Anthropic sostiene que lo que diferenciaba estas actividades de un uso normal no era una consulta aislada, sino la repetición masiva y coordinada de solicitudes orientadas a extraer capacidades muy concretas del modelo.

Tres campañas. Aunque Anthropic presenta las campañas como parte de una misma dinámica, distingue matices relevantes. DeepSeek habría focalizado sus más de 150.000 consultas en extraer capacidades de razonamiento y en generar alternativas seguras a preguntas políticamente sensibles. Moonshot, con más de 3,4 millones de consultas, se habría orientado hacia el desarrollo de agentes capaces de usar herramientas y manipular entornos informáticos. MiniMax concentraría el mayor volumen, más de 13 millones de consultas, y según el relato de Anthropic, reaccionó en cuestión de horas ante el lanzamiento de un nuevo sistema, redirigiendo su tráfico para intentar extraer capacidades de su sistema más reciente.

Un asunto geopolítico. La compañíafirma que los modelos destilados ilícitamente pueden perder las salvaguardas que buscan impedir que actores estatales o no estatales utilicen la IA para fines como el desarrollo de armas biológicas o campañas de desinformación. También sostiene que la destilación socava los controles de exportación al permitir a laboratorios extranjeros acortar distancias por otras vías, aunque al mismo tiempo reconoce que ejecutar estas extracciones a gran escala requiere acceso a chips avanzados, reforzando así la lógica de restringir su disponibilidad y, a la vez, recordando que el riesgo crecería si esas capacidades acabaran integrándose en sistemas militares, de inteligencia o de vigilancia.

Be the first to comment

Leave a Reply

Tu dirección de correo no será publicada.


*