AI Google перестанет использовать гендерные теги

Google Cloud Vision API для распознавания и маркирования объектов больше не будет применять к людям на изображениях теги «мужчина» и «женщина», пишет Business Insider.

7 комментариев
AI Google перестанет использовать гендерные теги

Google Cloud Vision API для распознавания и маркирования объектов больше не будет применять к людям на изображениях теги «мужчина» и «женщина», пишет Business Insider.

Инструмент умеет распознавать лица, геолокации, логотипы и массу другого контента и имеет широкий круг пользователей от ритейлеров до учёных. Теперь людей на фотографиях он будет обозначать нейтральным словом «person».

Google аргументирует свой шаг этическими соображениями. Во-первых, не всегда возможно определить гендер человека только по его внешности. Во-вторых, такое деление может привести к предвзятости и несправедливой дискриминации.

Некоторые называют такое решение Google «очень позитивным». Например, эксперты по проблеме предвзятости AI в Mozilla говорят, что при автоматической классификации людей, будь то по гендеру или ориентации, для начала нужно обозначить категории, по которым их будут разносить — уже на этом этапе заложено множество допущений. Разделение на мужчин и женщин предполагает, что гендер — бинарное понятие, а все те, кто не вписывается в такую систему, будут автоматически классифицированы неверно. Тем более, о гендере невозможно судить исключительно по внешности, и любая AI-система, которая это делает, неизбежно совершает ошибки, считают в Mozilla.

Разработчикам, которых коснётся изменение Cloud Vision API, Google предлагает обсудить его на своих форумах.

Хотите сообщить важную новость?

Пишите в наш Телеграм

Читайте также

В Англии спущен на воду автономный корабль под управлением AI
В Англии спущен на воду автономный корабль под управлением AI
В Англии спущен на воду автономный корабль под управлением AI
3 комментария
Китай составил «черный список» технологий на экспорт
Китай составил «черный список» технологий на экспорт
Китай составил «черный список» технологий на экспорт
В Гарварде создали AI для прогнозирования, как лекарства влияют на продолжительность жизни у мышей
В Гарварде создали AI для прогнозирования, как лекарства влияют на продолжительность жизни у мышей
В Гарварде создали AI для прогнозирования, как лекарства влияют на продолжительность жизни у мышей
1 комментарий
Как правильно считать толпу с помощью AI
Как правильно считать толпу с помощью AI
Как правильно считать толпу с помощью AI
1 комментарий

Обсуждение

0

Google - клясічны прыклад падвойных стандартаў. Разбіраецца з тым, з чым зручна. Нацыянальныя праблемы для іх як бы не існуюць (мовы шмат якіх народаў проста ігоануюцца пашукавіком і ўсімі ягонымі сэрвісамі), а вось з гендэрам яны разабраліся (ага, спачатку створаць праблему, потым яе вырашаюць - геніі, ну-ну)

1

Во первых все не англоговорящие для них рассматриваются в порядке профита и платежеспособности. Это корпорация. А гендерная повестка популярна в их инфо поле. Не понимаю чему тут удивляться или возмущаться.

0

Предвзятость, дискриминация при распознавании - может хватит раздувать несуществующие проблемы?

2

Они вам перезвонят уточнить что им ещё хватит :)
Это может быть самореклама для не инженеров, для публики.

0

)) возможно, тема то хайповая и холиварная нынче)

0

эксперты по проблеме предвзятости AI

интересная специализация ) зачем такие люди разработчику браузера и почтового клиента?

Комментарий скрыт за нарушение правил комментирования.
П. 4.1.2. Пользовательского соглашения — https://dev.by/pages/agreement

Спасибо! 

Получать рассылки dev.by про белорусское ИТ

Что-то пошло не так. Попробуйте позже