MISC · 05 июля 2017, 10:40 · Отдел информации dev.by
Чат-бот от Microsoft снова «научился плохому»

Спустя год после неудачного запуска чат-бота Tay, в течение суток перенявшего нацистские взгляды, Microsoft запустила новую разработку, названную Zo. И на этот раз к корректности бота также появились вопросы, сообщает Engadget со ссылкой на BuzzFeed.

Иллюстрация: Engadget

Несмотря на то, что Zo запрограммирован игнорировать политику и религию, иногда он отвечает на вопросы по этой теме, и делает это с помощью весьма сомнительных утверждений. К примеру, в одном случае чат-бот назвал Коран «очень жестоким» и неоднозначно высказался насчёт поимки Осамы бин Ладена.

Microsoft утверждает, что откорректировала поведение бота. Но если прошлый провал компания списала на координированные усилия группы пользователей Twitter, которым удалось «направить» воспитание чат-бота в нужное им русло, то в случае с Zo сомнительные утверждения не были спровоцированы.

Ключевая аудитория Zo — подростки, и на этот раз чат-бот функционирует в мессенджере Kik, обладающего средней по размерам пользовательской базой. Несмотря на потенциальную проблематичность некорректного бота в «подростковой среде», Microsoft готова взять на себя некоторые риски во имя достижения более масштабных целей.

Источник: dev.by
Нашли в тексте ошибку — выделите её и нажмите Ctrl+Enter.
Вакансии
Новые комментарии


Авторизуйтесь, чтобы оставлять комментарии

Использование материалов, размещенных на сайте, разрешается при условии прямой гиперссылки на dev.by. Ссылка должна быть размещена в подзаголовке или в первом абзаце публикации.
datahata — хостинг в Беларуси