Admin
Администратор
Американская компания Anthropic заявила о попытке незаконного копирования её языковой модели Claude. Три китайские компании использовали миллионы запросов для воспроизведения ключевых функций системы.
DeepSeek, Moonshot AI и MiniMax организовали промышленные кампании по извлечению возможностей модели. С помощью поддельных аккаунтов они сгенерировали более 16 миллионов обращений к Claude, обходя ограничения сервиса и региональные запреты.
В основе схемы лежит метод дистилляции, когда слабую модель обучают на ответах более мощной. DeepSeek сосредоточилась на логических возможностях Claude, Moonshot AI пыталась извлечь механизмы агентного рассуждения, а MiniMax делала упор на агентное программирование. Anthropic внедрила системы поведенческого анализа и классификаторы для выявления подобных схем. Похожую активность ранее выявила и группа Google Threat Intelligence Group в отношении модели Gemini.