Дистилляция данных: Как работает «кража интеллекта»
Стартап Anthropic (создатель модели Claude) опубликовал отчет, в котором детально описал масштабную операцию трех ведущих ИИ-лабораторий Китая по краже интеллектуальной собственности через механизм дистилляции.
Это заявление прозвучало на фоне недавнего скандала вокруг модели DeepSeek, которая в начале 2026 года шокировала рынок своей эффективностью при аномально низких затратах.
В основе обвинений лежит использование тактики дистилляции — когда одна нейросеть обучается на ответах другой. Вместо того чтобы тратить миллиарды долларов на обработку сырых данных, китайские компании использовали Claude как «учителя», копируя его логику и манеру рассуждения.
Масштабы активности (по данным Anthropic)
Суммарно китайские компании отправили более 16 миллионов запросов, используя сеть из 24 000 поддельных аккаунтов для обхода защитных лимитов.
Позиция Китая: «Опосредованное обучение»
Китайские компании выбрали разные тактики защиты:
-
DeepSeek: Утверждают, что не использовали «синтетические данные» напрямую. Однако они признали, что обучали свою модель на данных из интернета, которые уже были загрязнены ответами от моделей OpenAI и Anthropic.
-
Moonshot AI: В своем техническом отчете открыто признали использование синтетических данных, оправдывая это дефицитом качественной человеческой информации в сети.
Угроза национальной безопасности США
Anthropic подчеркивает, что проблема выходит за рамки корпоративного спора. В отчете, направленном в правительство США 24 февраля, выделены три критических риска:
-
Военное применение: Китай может интегрировать «дистиллированные» возможности в системы наведения и разведки.
-
Экономический демпинг: Китайские ИИ-модели выходят на рынок с ценой в 10–20 раз ниже американских аналогов, так как их разработчики не несли затрат на фундаментальные исследования.
-
Обход санкций: Дистилляция позволяет создавать мощные модели даже на старых чипах, нивелируя экспортные ограничения США на поставку ускорителей Nvidia.
Что дальше?
Обвинения Anthropic (вслед за аналогичными претензиями от OpenAI) могут привести к введению новых санкций. Ожидается, что Министерство торговли США может рассмотреть вопрос о полной блокировке доступа к API американских ИИ-моделей для любых компаний, имеющих штаб-квартиры в Китае или связанных с китайским капиталом.
«Использование наших алгоритмов для обучения конкурентов за долю стоимости — это не инновация, это паразитирование на американских исследованиях», — из заявления руководства Anthropic.
