Anthropic ha denunciado ataques de distilación a gran escala dirigidos a su modelo Claude, atribuidos a las empresas DeepSeek, Moonshot AI y MiniMax. Estas entidades habrían creado más de 24,000 cuentas fraudulentas y generado más de 16 millones de intercambios con el chatbot, con el objetivo de extraer sus capacidades para mejorar sus propios modelos de inteligencia artificial.
La compañía, que ya enfrentó controversias el año pasado por el uso de material con derechos de autor, ha confirmado que tomará medidas contra estas actividades, las cuales considera ilegítimas. Anthropic sostiene que estas distilaciones no solo son un problema de competencia desleal, sino que también pueden comprometer la seguridad nacional al permitir que laboratorios extranjeros accedan a las capacidades de sus modelos.
En un comunicado, la empresa enfatizó la necesidad de una acción coordinada entre los actores de la industria y los responsables de políticas para abordar esta situación en crecimiento. Anthropic ha logrado atribuir cada campaña de ataque a un laboratorio específico con alta confianza utilizando métodos como la correlación de direcciones IP y metadatos de solicitudes.
A medida que estos ataques se vuelven más sofisticados, la preocupación por la privacidad de los usuarios también aumenta, planteando cuestiones sobre la capacidad de Anthropic para desanonimizar a los usuarios de su plataforma.