Американские компании OpenAI, Anthropic и Google (Alphabet) начали совместно бороться с китайскими конкурентами, которые используют так называемую дистилляцию для извлечения возможностей из передовых американских ИИ-моделей , чтобы получить преимущество в глобальной гонке.
Как сообщает Bloomberg, фирмы обмениваются информацией через некоммерческую организацию Frontier Model Forum, которую они основали вместе с Microsoft в 2023 году. Цель — выявлять попытки несанкционированной дистилляции, нарушающие условия сервиса. Администрация Трампа поддерживает такую координацию и в прошлом году включила создание центра обмена информацией в свой AI Action Plan.
Такая редкая кооперация подчеркивает серьезность проблемы: китайские пользователи создают дешевые копии американских моделей, которые могут подорвать рынок и создать риски национальной безопасности США. По оценкам, подобные действия ежегодно обходятся американским лабораториям в миллиарды долларов упущенной прибыли.
OpenAI подтвердила участие в обмене данными и обвинила китайскую компанию DeepSeek в попытках «бесплатно пользоваться» разработками американских лабораторий.
Дистилляция — это метод, при котором «учитель» (большая модель) используется для обучения «ученика», который копирует ее возможности — но гораздо дешевле. Хотя некоторые виды дистилляции разрешены и даже поощряются внутри компаний, несанкционированное использование третьими сторонами, особенно из Китая и России, вызывает в США серьезные опасения. Такие модели часто лишены защитных механизмов, что позволяет создавать биологическое оружие и другие угрозы.
Большинство китайских моделей открытые и стоят значительно дешевле, что создает экономическое давление на американские компании, которые держат свои модели закрытыми и тратят сотни миллиардов на инфраструктуру.
Проблема вышла на первый план в январе 2025 года после неожиданного релиза модели DeepSeek R1. OpenAI и Microsoft тогда расследовали возможное хищение данных. В феврале OpenAI предупредила Конгресс, что DeepSeek продолжает использовать всё более изощренные методы дистилляции для создания новых версий своего
Дистилляция остается одной из главных угроз для американских разработчиков ИИ. Anthropic уже заблокировал доступ для китайских компаний и перчислил нарушителей: DeepSeek, Moonshot и MiniMax. Google также зафиксировал рост попыток извлечения моделей.

