Стартап Anthropic, разработавший чат-бот Claude, обвинил китайские компании в том, что те занимаются «дистилляцией». Проще говоря, обучают собственные нейросети за счет американских.
Создатели одного из самых популярных
Так называется процесс обучения более простой модели искусственного интеллекта за счет более сложной. ИИ учат воспроизводить поведение более продвинутой нейросети, отправляя разнообразные запросы. Ответы используют для тренировки.
Anthropic утверждает, что китайские компании более 16 миллионов раз отправляли запросы Claude. Для этого они зарегистрировали 24 тысячи мошеннических аккаунтов. MiniMax, в частности, сделала 13 миллионов запросов, DeepSeek — 240 тысяч.
Американский стартап утверждает, что китайские разработчики могут нанести ущерб национальной безопасности США. ИИ, натренированный «дистилляцией», заявляют в Anthropic, можно использовать в военных целях.
Это далеко не первый раз, когда американские фирмы обвиняют китайских конкурентов подобных практиках. Создатели ChatGPT пожаловались властям США на такую конкуренцию. В OpenAI подчеркивают, что инвестируют миллиарды в инфраструктуру и взимают плату за использование своих продуктов. А вот китайцы зачастую позволяют работать со своими нейросетями бесплатно.

