Amazon отказалась от инструмента для автоматизации найма: его уличили в сексизме

10 октября 2018, 13:24
Amazon отказалась от инструмента для автоматизации найма: его уличили в сексизме

Amazon отказалась от разработки инструмента по автоматизации найма после трёх лет работы. Это произошло после того, алгоритмы уличили в сексизме, сообщает Reuters. Исправить проблему не смогли.

Работу над продуктом начали в 2014 году. Его задачей было автоматизировать отбор резюме, чтобы сэкономить время рекрутеров.

«Все хотели получить этот „святой грааль“. Они хотели систему, которая отбирала бы 5 из 100 резюме, и именно этим специалистам предлагали бы работу», — сообщил Reuters один из источников в Amazon.

Однако уже год спустя обнаружилось, что новый инструмент автоматически занижал шансы женщин на успех при трудоустройстве. Это произошло из-за того, что алгоритмы обучались на 10-летниах паттернах в принятии решений о найме. А эти решения в основном принимали мужчины, с учётом доминирования «сильного пола» в индустрии.

По этой причине автоматизированная система ставила меньшие баллы, если определяла, что кандидат — женщина. Например, выпускницы двух женских колледжей (их названия не раскрывают) имели меньше шансов, чем те, кто закончил «смешанные» учебные заведения.

Amazon пыталась исправить найденные ошибки, но в результате закрыла проект из-за того, что не смогла гарантировать принятие нейтральных решений искусственным интеллектом. «Руководство потеряло надежду», — заявили источники Reuters.

Неудавшийся эксперимент Amazon стал наглядным подтверждением ограничений, с которыми приходится сталкиваться разработчикам моделей машинного обучения.

«Гарантировать принятие алгоритмами независимых решений, которые можно понять и объяснить — до этого ещё далеко», — считает преподаватель Университета Карнеги-Меллон Нихар Шан.

Обсуждение