
В понедельник сообщество искусственного интеллекта взорвалось: китайская модель DeepSeek R1 показала результаты уровня OpenAI, но затраты на её обучение оказались в 20–30 раз ниже. Этот открытый проект не просто удивил разработчиков — он заставил бизнес пересмотреть многомиллионные бюджеты на ИИ.
С момента релиза модель скачали 109 тысяч раз на HuggingFace, а её встроенный поисковик уже обходит OpenAI и Perplexity. Для компаний это сигнал: пора перестать сливать деньги на дорогие проприетарные решения. Рассказываем, как скромный стартап бросил вызов гигантам и что это значит для будущего технологий.
Секрет DeepSeek: Обучение с подкреплением вместо шаблонов
Раньше все топовые ИИ-модели проходили этап SFT (Supervised Fine-Tuning) — их «натаскивали» на curated-датасетах с готовыми примерами рассуждений. Но DeepSeek пошёл другим путём. Они полностью отказались от SFT, сделав ставку на обучение с подкреплением (Reinforcement Learning, RL).
Как это работает?
Модель не получала готовых ответов. Вместо этого её поощряли за правильные решения и логические цепочки, ведущие к ним. Со временем ИИ научился самостоятельно распределять ресурсы: тратить больше времени на сложные задачи и находить неочевидные пути решения. Разработчики назвали это «ага-моментом» — когда система вдруг осознала, как оптимизировать процесс (см. график ниже).

Конечно, без проблем не обошлось. Первая версия R1-Zero путала языки и выдавала нечитаемые ответы. Команде пришлось добавить немного SFT на финальном этапе, но основа успеха — именно RL. Как сказал один из исследователей: «Мы не учили модель шагам, мы дали ей стимул — и она нашла путь сама».
Почему это прорыв? Цифры говорят сами
- Бюджет обучения: $5.58 млн за 2 месяца (против $100 млн+ у OpenAI).
- Ресурсы: 50 000 GPU Nvidia (у OpenAI — 500 000+).
- Открытый код: Любой разработчик может доработать модель под свои задачи.
DeepSeek — дочерняя компания хедж-фонда High-Flyer Quant. Они нарастили мощности до экспортных ограничений США и использовали открытые наработки Meta (Llama, PyTorch). Но главное — оптимизация процессов. Например, их метод Multi-Head Latent Attention сократил вычислительные затраты на 40%.
Что это значит для бизнеса?
- Демократизация ИИ. Стартапы и средние компании теперь могут внедрять крутые модели без бюджета FAANG.
- Прозрачность. DeepSeek показывает всю цепочку рассуждений, в отличие от «чёрного ящика» OpenAI. Это упрощает дебаггинг и кастомизацию.
- Мобильность. Уже есть версии R1 для смартфонов — представьте ИИ-ассистента, работающего оффлайн.
Но есть и подводные камни. Китайское происхождение модели вызывает вопросы: например, она отказывается обсуждать Тяньаньмэнь. Однако, как отмечают разработчики, предвзятость есть у всех моделей — даже у Llama 3 от Meta. Решение? Дообучить R1 под свои нужды.
А что же OpenAI?
Проект Stargate за $500 млрд теперь выглядит сомнительно. Если AGI (общий ИИ) можно создать за копейки, зачем вкладывать сотни миллиардов? Как сказал инвестор Чамат Палихапития: «OpenAI рискует повторить судьбу Blockbuster, пока мир переходит на Netflix».
Китайский подход — это децентрализация и open-source. Как отметил предприниматель Арно Бертран: «Шок в том, что Китай обгоняет США, несмотря на санкции. Они не копируют — они изобретают». Уже на следующий день после релиза R1 компания ByteDance анонсировала модель Doubao-1.5-pro с режимом «Глубокое мышление», который превзошёл OpenAI в тестах.
Кто выиграет?
- Стартапы — доступ к топовому ИИ почти бесплатно.
- Корпорации — сократят расходы на AI в 10–20 раз.
- Пользователи — больше кастомизации и прозрачности.
Но гонка только начинается. Meta и Mistral уже изучают подход DeepSeek. Как сказал Янн Лекун (глава AI Meta): «Никто не лидирует навсегда. Мы все учимся друг у друга».
Главный урок: Не размер бюджета, а креативность решений определяет успех. И да, OpenAI пора нервничать.
Что думаете? Стоит ли бизнесу массово переходить на open-source модели? Пишите в комментариях!