
Компания OpenAI, известная разработкой чат-бота ChatGPT, заключила контракт с Министерством обороны США на сумму 200 миллионов долларов. Цель сотрудничества – создание и прототипирование передовых возможностей искусственного интеллекта (Frontier AI) для решения важных задач в области национальной безопасности.
Что такое Frontier AI и зачем это нужно Пентагону?
Frontier AI – это масштабные модели искусственного интеллекта, которые расширяют границы возможностей в таких областях, как обработка естественного языка, генерация изображений, создание видео и программирование. Они обучаются на огромных массивах данных и содержат миллиарды параметров, что делает их очень мощными и универсальными.
В рамках контракта OpenAI будет разрабатывать прототипы Frontier AI, которые помогут Министерству обороны США решать критические задачи в различных областях, включая:
- Административные операции: Оптимизация программ закупок, управление данными, улучшение системы здравоохранения для военнослужащих и их семей.
- Национальная безопасность: Поддержка киберзащиты и решение других задач, связанных с обеспечением безопасности страны.
Предполагается, что разработка будет вестись в основном в Вашингтоне и его окрестностях, а завершение проекта запланировано на июль 2026 года.
«OpenAI для правительства»: новая инициатива
Это сотрудничество является частью новой инициативы OpenAI под названием «OpenAI для правительства». Она направлена на изучение и применение возможностей искусственного интеллекта в государственных учреждениях.
Несмотря на перспективы сотрудничества, существуют и некоторые вопросы, касающиеся использования искусственного интеллекта в военных целях. В частности, правила OpenAI запрещают использование технологий компании для разработки или применения оружия. Компания подчеркивает, что все варианты использования Frontier AI должны соответствовать ее принципам и правилам.
Позиция OpenAI по использованию ИИ в военных целях
Ранее OpenAI полностью запрещала использование своих технологий в военных целях. Однако, в январе 2024 года формулировку изменили. Теперь компания запрещает использовать свои сервисы для причинения вреда себе или другим. Этот вопрос остается предметом обсуждений. Он требует внимательного рассмотрения этических аспектов применения искусственного интеллекта в сфере национальной безопасности.
Источник — OpenAI
