
Компании Scale AI и Outlier оказались в центре скандала с ИИ. Их обвиняют в том, что они не позаботились о психическом здоровье сотрудников. Которые ежедневно сталкиваются с шокирующим контентом, чтобы обучить ИИ избегать опасных ответов. Иск, поданный в федеральный суд Калифорнии, стал новым витком в спорах о «теневой» стороне разработки искусственного интеллекта.
Что случилось?
Scale AI (специализируется на разметке данных для обучения ИИ) и Outlier (платформа для найма удаленных работников) нанимали людей для выполнения двух ключевых задач:
- Модерация запросов к ИИ — например, оценка, насколько токсичен вопрос вроде «Как спланировать массовое убийство?»
- Создание «безопасных» ответов — чтобы ИИ в будущем не предлагал пользователям инструкции по суициду или насилию.
Проблема в том, что сотрудники, которых называли «Таскерами», часами просматривали материалы с крайне жестоким содержанием: изображения изнасилований, убийств, пыток животных и даже детской эксплуатации. Как утверждается в иске, это привело к развитию у работников ПТСР, депрессии и проблемам в личной жизни. Некоторые изображения, по словам истцов, были настолько реалистичными, что их принимали за подлинные записи преступлений.
Контекст: Почему это важно?
- Гонка за «этичным ИИ»: Компании вроде OpenAI и Microsoft используют услуги Scale AI и Outlier, чтобы их модели не выдавали опасный контент. Но кто защищает тех, кто создает эти «защитные механизмы»?
- Глобализация цифрового труда: Как отмечает организация Privacy International, львиная доля такой работы выполняется в странах с дешевой рабочей силой — Кении, Индии, Филиппинах. Низкие зарплаты (по данным исков в декабре и январе — ниже минимальных) усугубляют стресс.
- Прецеденты: Еще в 2020 году модераторы Facebook жаловались на отсутствие поддержки после просмотра тысяч постов с насилием. Microsoft тоже судилась с сотрудниками, которые искали в OneDrive материалы с детской эксплуатацией.
Что говорят компании?
Scale AI отрицает обвинения:
«Обучение ИИ распознавать опасный контент критически важно для безопасности технологий. Мы предупреждаем сотрудников о характере работы, разрешаем в любой момент отказаться от задания и предоставляем программы психологической поддержки», — заявил представитель компании Джо Осборн.
Он также раскритиковал Clarkson Law Firm (представляет истцов), напомнив, что ранее судьи называли их иски «беспорядочными» и «содержащими избыток ненужной информации».
Outlier на момент публикации не предоставил комментариев.
Что требуют истцы?
Шесть работников подали коллективный иск, требуя:
- Компенсации за моральный ущерб.
- Внедрения системы мониторинга психического здоровья для всех сотрудников.
- Расследования условий труда на платформах.
Экспертное мнение
Карлос Андрес Арройяве Берналь, эксперт по цифровой этике:
«Риски для модераторов сопоставимы с работой в зоне военных действий. Отсутствие страховки, низкие зарплаты и давление сроков превращают их в «невидимых солдат» технологической революции».
Что дальше?
Суд может создать прецедент для регулирования рынка труда в сфере ИИ. Пока же Scale AI и Outlier готовятся к борьбе в зале суда, а тысячи модераторов по всему миру продолжают фильтровать тьму, чтобы ИИ оставался «светлым».
P.S. Если вам интересна тема этики в технологиях, сохраните этот материал — мы следим за развитием событий и подготовим подробный разбор судебных процессов.
источник — theregister
- Samsung Galaxy S25 и Google Project Astra: как ИИ станет «умным зрением»
- Бум ИИ: компаниям стоит учесть итоги «золотой лихорадки»
- OpenAI и партнеры запускают Stargate: $500 млрд на ИИ-инфраструктуру к 2029
- Perplexity AI запускает мобильного ассистента для Android: сможет ли он обойти ChatGPT и Gemini?
- Google усиливает защиту Android: как Identity Check защитит ваши данные даже при краже телефона