Бот на базе GPT-3 неделю выдавал себя за человека на Reddit

Читатель Reddit Филип Уинстон обратил внимание на поразительную скорость, с которой пользователь под ником thegentlemetre выдавал ответы в сабреддите AskReddit — на один вопрос в минуту, при том что эти ответы были достаточно развёрнутыми и выглядели правдоподобно. Как выяснилось, их постил бот на основе нейросети OpenAI, пишет Gizmodo.

Оставить комментарий
Бот на базе GPT-3 неделю выдавал себя за человека на Reddit

Читатель Reddit Филип Уинстон обратил внимание на поразительную скорость, с которой пользователь под ником thegentlemetre выдавал ответы в сабреддите AskReddit — на один вопрос в минуту, при том что эти ответы были достаточно развёрнутыми и выглядели правдоподобно. Как выяснилось, их постил бот на основе нейросети OpenAI, пишет Gizmodo.

Ответы показались Уинстону схожими с текстами, сгенерированными языковой моделью GPT-3, доступ к которой OpenAI предоставляет в очень ограниченном масштабе по запросу. Его поддержали другие читатели форума и предположили, что за thegentlemetre может стоять генератор текста Philosopher AI, построенный на GPT-3: сообщения преимущественно состояли из 6 абзацев, что совпадает с текстами, которые порождает сервис.

Позже догадку подтвердил разработчик Philosopher AI Мурат Айфер. thegentlemetre проделал реверс-инжиниринг iOS-приложения Philosopher AI и обошёл ввод капчи, а также создал бота, который автоматически создавал посты через его сервис, рассказал Айфер Gizmodo. Проблема была устранена, а «нейронные» посты два дня назад прекратились. За последние сутки с аккаунта thegentlemetre было написано только два ответа — по одному предложению.

AskReddit насчитывает 30+ млн пользователей. Искусственному интеллекту удавалось обманывать ничего не подозревающих форумчан, которые всерьёз обсуждали его посты, больше недели.

Хотя большинство сообщений бота, отмечает The Next Web, были вполне безобидны и даже забавны, иногда он скатывался в конспирологию и истории про иллюминатов или рассуждал на щекотливые темы, например самоубийства. Тем не менее этот случай ещё раз продемонстрировал, что опасения OpenAI были не напрасны, и по мере своего совершенствования технологии порождения речи могут научиться ещё лучше обманывать и манипулировать людьми, а злоумышленники — лучше заметать следы.

Хотите сообщить важную новость? Пишите в Телеграм-бот.

А также подписывайтесь на наш Телеграм-канал.

Читайте также

Топ главных ИТ-специальностей и ИТ-навыков в 2021 году
Топ главных ИТ-специальностей и ИТ-навыков в 2021 году
Топ главных ИТ-специальностей и ИТ-навыков в 2021 году
Dice Insights ежегодно составляет перечень технологических профессий, которые ждёт рост или спад популярности в ближайшие 12 месяцев. За основу берут прогнозы консалтинговой компании Foote Partners. К примеру, в прошлом году оказались точны предсказания её аналитиков по большим данным, AI и опыту в кибербезопасности, востребованность которых увеличилась сильнее ожидаемого на фоне массового перехода на удалёнку.
MIT проанализировал язык форумов во время пандемии и обнаружил психический кризис
MIT проанализировал язык форумов во время пандемии и обнаружил психический кризис
MIT проанализировал язык форумов во время пандемии и обнаружил психический кризис
«Шрека» сжали до 1,37 Мб и записали на дискету
«Шрека» сжали до 1,37 Мб и записали на дискету
«Шрека» сжали до 1,37 Мб и записали на дискету
DeepMind научили AI выигрывать игры, не зная правил
DeepMind научили AI выигрывать игры, не зная правил
DeepMind научили AI выигрывать игры, не зная правил

Обсуждение

Комментариев пока нет.
Спасибо! 

Получать рассылки dev.by про белорусское ИТ

Что-то пошло не так. Попробуйте позже