Получайте реальное вознаграждение за просмотрыподелитьсярефераловкомментарии

Цена прогресса: Scale AI и Outlier в суде из-за модераторов ИИ

Компании Scale AI и Outlier оказались в центре скандала с ИИ. Их обвиняют в том, что они не позаботились о психическом здоровье сотрудников. Которые ежедневно сталкиваются с шокирующим контентом, чтобы обучить ИИ избегать опасных ответов. Иск, поданный в федеральный суд Калифорнии, стал новым витком в спорах о «теневой» стороне разработки искусственного интеллекта.

Что случилось?

Scale AI (специализируется на разметке данных для обучения ИИ) и Outlier (платформа для найма удаленных работников) нанимали людей для выполнения двух ключевых задач:

  1. Модерация запросов к ИИ — например, оценка, насколько токсичен вопрос вроде «Как спланировать массовое убийство?»
  2. Создание «безопасных» ответов — чтобы ИИ в будущем не предлагал пользователям инструкции по суициду или насилию.

Проблема в том, что сотрудники, которых называли «Таскерами», часами просматривали материалы с крайне жестоким содержанием: изображения изнасилований, убийств, пыток животных и даже детской эксплуатации. Как утверждается в иске, это привело к развитию у работников ПТСР, депрессии и проблемам в личной жизни. Некоторые изображения, по словам истцов, были настолько реалистичными, что их принимали за подлинные записи преступлений.

Контекст: Почему это важно?

  • Гонка за «этичным ИИ»: Компании вроде OpenAI и Microsoft используют услуги Scale AI и Outlier, чтобы их модели не выдавали опасный контент. Но кто защищает тех, кто создает эти «защитные механизмы»?
  • Глобализация цифрового труда: Как отмечает организация Privacy International, львиная доля такой работы выполняется в странах с дешевой рабочей силой — Кении, Индии, Филиппинах. Низкие зарплаты (по данным исков в декабре и январе — ниже минимальных) усугубляют стресс.
  • Прецеденты: Еще в 2020 году модераторы Facebook жаловались на отсутствие поддержки после просмотра тысяч постов с насилием. Microsoft тоже судилась с сотрудниками, которые искали в OneDrive материалы с детской эксплуатацией.

Что говорят компании?

Scale AI отрицает обвинения:

«Обучение ИИ распознавать опасный контент критически важно для безопасности технологий. Мы предупреждаем сотрудников о характере работы, разрешаем в любой момент отказаться от задания и предоставляем программы психологической поддержки», — заявил представитель компании Джо Осборн.

Он также раскритиковал Clarkson Law Firm (представляет истцов), напомнив, что ранее судьи называли их иски «беспорядочными» и «содержащими избыток ненужной информации».

Outlier на момент публикации не предоставил комментариев.

Что требуют истцы?

Шесть работников подали коллективный иск, требуя:

  • Компенсации за моральный ущерб.
  • Внедрения системы мониторинга психического здоровья для всех сотрудников.
  • Расследования условий труда на платформах.

Экспертное мнение

Карлос Андрес Арройяве Берналь, эксперт по цифровой этике:

«Риски для модераторов сопоставимы с работой в зоне военных действий. Отсутствие страховки, низкие зарплаты и давление сроков превращают их в «невидимых солдат» технологической революции».

Что дальше?

Суд может создать прецедент для регулирования рынка труда в сфере ИИ. Пока же Scale AI и Outlier готовятся к борьбе в зале суда, а тысячи модераторов по всему миру продолжают фильтровать тьму, чтобы ИИ оставался «светлым».

P.S. Если вам интересна тема этики в технологиях, сохраните этот материал — мы следим за развитием событий и подготовим подробный разбор судебных процессов.

источник — theregister

Тэги:

Владислав Ильин
Перейти в профиль Владислав Ильин

По образованию юрист, но большую часть своей сознательной жизни трудился в технической сфере. Участвовал в разработке финтех решений для банка, после этого несколько лет жил на Бали. На протяжении последнего времени занимаюсь консультированием и журналистикой в сферах бытовой и автомобильной электроники.

Мы будем рады вашему мнению

      Оставьте отзыв

      daboom.ru
      Logo
      Создание нового аккаунта

      Этот сайт защищен reCAPTCHA от Google. Я принимаю Политику Конфиденциальности и Условия использования. Отправляя форму вы соглашаетесь на обработку персональных данных.