Получайте реальное вознаграждение за просмотрыподелитьсярефераловкомментарии

DeepSeek R1 обошла OpenAI, потратив в 20 раз меньше

В понедельник сообщество искусственного интеллекта взорвалось: китайская модель DeepSeek R1 показала результаты уровня OpenAI, но затраты на её обучение оказались в 20–30 раз ниже. Этот открытый проект не просто удивил разработчиков — он заставил бизнес пересмотреть многомиллионные бюджеты на ИИ.

С момента релиза модель скачали 109 тысяч раз на HuggingFace, а её встроенный поисковик уже обходит OpenAI и Perplexity. Для компаний это сигнал: пора перестать сливать деньги на дорогие проприетарные решения. Рассказываем, как скромный стартап бросил вызов гигантам и что это значит для будущего технологий.

Секрет DeepSeek: Обучение с подкреплением вместо шаблонов

Раньше все топовые ИИ-модели проходили этап SFT (Supervised Fine-Tuning) — их «натаскивали» на curated-датасетах с готовыми примерами рассуждений. Но DeepSeek пошёл другим путём. Они полностью отказались от SFT, сделав ставку на обучение с подкреплением (Reinforcement Learning, RL).

Как это работает?
Модель не получала готовых ответов. Вместо этого её поощряли за правильные решения и логические цепочки, ведущие к ним. Со временем ИИ научился самостоятельно распределять ресурсы: тратить больше времени на сложные задачи и находить неочевидные пути решения. Разработчики назвали это «ага-моментом» — когда система вдруг осознала, как оптимизировать процесс (см. график ниже).

deepseek r1

Конечно, без проблем не обошлось. Первая версия R1-Zero путала языки и выдавала нечитаемые ответы. Команде пришлось добавить немного SFT на финальном этапе, но основа успеха — именно RL. Как сказал один из исследователей: «Мы не учили модель шагам, мы дали ей стимул — и она нашла путь сама».

Почему это прорыв? Цифры говорят сами

  • Бюджет обучения: $5.58 млн за 2 месяца (против $100 млн+ у OpenAI).
  • Ресурсы: 50 000 GPU Nvidia (у OpenAI — 500 000+).
  • Открытый код: Любой разработчик может доработать модель под свои задачи.

DeepSeek — дочерняя компания хедж-фонда High-Flyer Quant. Они нарастили мощности до экспортных ограничений США и использовали открытые наработки Meta (Llama, PyTorch). Но главное — оптимизация процессов. Например, их метод Multi-Head Latent Attention сократил вычислительные затраты на 40%.

Что это значит для бизнеса?

  1. Демократизация ИИ. Стартапы и средние компании теперь могут внедрять крутые модели без бюджета FAANG.
  2. Прозрачность. DeepSeek показывает всю цепочку рассуждений, в отличие от «чёрного ящика» OpenAI. Это упрощает дебаггинг и кастомизацию.
  3. Мобильность. Уже есть версии R1 для смартфонов — представьте ИИ-ассистента, работающего оффлайн.

Но есть и подводные камни. Китайское происхождение модели вызывает вопросы: например, она отказывается обсуждать Тяньаньмэнь. Однако, как отмечают разработчики, предвзятость есть у всех моделей — даже у Llama 3 от Meta. Решение? Дообучить R1 под свои нужды.

А что же OpenAI?

Проект Stargate за $500 млрд теперь выглядит сомнительно. Если AGI (общий ИИ) можно создать за копейки, зачем вкладывать сотни миллиардов? Как сказал инвестор Чамат Палихапития: «OpenAI рискует повторить судьбу Blockbuster, пока мир переходит на Netflix».

Китайский подход — это децентрализация и open-source. Как отметил предприниматель Арно Бертран: «Шок в том, что Китай обгоняет США, несмотря на санкции. Они не копируют — они изобретают». Уже на следующий день после релиза R1 компания ByteDance анонсировала модель Doubao-1.5-pro с режимом «Глубокое мышление», который превзошёл OpenAI в тестах.

Кто выиграет?

  • Стартапы — доступ к топовому ИИ почти бесплатно.
  • Корпорации — сократят расходы на AI в 10–20 раз.
  • Пользователи — больше кастомизации и прозрачности.

Но гонка только начинается. Meta и Mistral уже изучают подход DeepSeek. Как сказал Янн Лекун (глава AI Meta): «Никто не лидирует навсегда. Мы все учимся друг у друга».

Главный урок: Не размер бюджета, а креативность решений определяет успех. И да, OpenAI пора нервничать.

Что думаете? Стоит ли бизнесу массово переходить на open-source модели? Пишите в комментариях!

0

Владислав Ильин
Перейти в профиль Владислав Ильин

По образованию юрист, но большую часть своей сознательной жизни трудился в технической сфере. Участвовал в разработке финтех решений для банка, после этого несколько лет жил на Бали. На протяжении последнего времени занимаюсь консультированием и журналистикой в сферах бытовой и автомобильной электроники.

Мы будем рады вашему мнению

      Оставьте отзыв

      daboom.ru
      Logo
      Создание нового аккаунта

      Этот сайт защищен reCAPTCHA от Google. Я принимаю Политику Конфиденциальности и Условия использования. Отправляя форму вы соглашаетесь на обработку персональных данных.