
В недавней публикации на платформе Arxiv, которая ещё ожидает официального рецензирования, специалисты из Apple поделились своими достижениями в области искусственного интеллекта. Они исследуют возможность распознавания моментов, когда пользователь обращается к своему устройству, например iPhone, без использования активационной фразы типа «Привет, Siri». Для этого они обучили мощную языковую модель, основанную на данных, полученных как от записей разговоров, так и от фоновых шумов, чтобы выявить закономерности, сигнализирующие о необходимости помощи устройства.
Команда Apple, включая троих членов из группы по разработке Siri, использовала модифицированную версию GPT-2 от OpenAI из-за её относительной простоты и потенциала для работы на мобильных устройствах. Исследование охватило более 129 часов аудиоданных и дополнительные текстовые материалы, хотя источники этих данных в документе не уточняются.
Результаты, как отмечают авторы, оказались весьма обнадёживающими. Модель продемонстрировала высокую точность прогнозирования, превосходя те, что базируются исключительно на аудио или тексте, и показала улучшение с ростом размера модели. Тем не менее, вопрос о том, планирует ли Apple отказаться от использования активационной фразы «Привет, Siri», остаётся открытым.
Компания Apple и её исследователи пока не предоставили официальных комментариев по этому поводу.
Источник — technologyreview.com
- Caviar выпустит 24 эксклюзивные гарнитуры Apple Vision Pro
- Apple приобрела DarwinAI и вступает в гонку генеративного ИИ
- Samsung Galaxy Z Fold 6 может получить титановый корпус
- PlayStation 5 стала самой продаваемой консолью в мире
- HONOR 200 Lite появился на сайте сертификации
- Galaxy AI будет добавлен в более ранние устройства Samsung
- Лучшие телефоны iPhone
- Лучшие Apple Watch
- Лучшие Apple iPad
