Бот на базе GPT-3 неделю выдавал себя за человека на Reddit

Читатель Reddit Филип Уинстон обратил внимание на поразительную скорость, с которой пользователь под ником thegentlemetre выдавал ответы в сабреддите AskReddit — на один вопрос в минуту, при том что эти ответы были достаточно развёрнутыми и выглядели правдоподобно. Как выяснилось, их постил бот на основе нейросети OpenAI, пишет Gizmodo.

Оставить комментарий
Бот на базе GPT-3 неделю выдавал себя за человека на Reddit

Читатель Reddit Филип Уинстон обратил внимание на поразительную скорость, с которой пользователь под ником thegentlemetre выдавал ответы в сабреддите AskReddit — на один вопрос в минуту, при том что эти ответы были достаточно развёрнутыми и выглядели правдоподобно. Как выяснилось, их постил бот на основе нейросети OpenAI, пишет Gizmodo.

Ответы показались Уинстону схожими с текстами, сгенерированными языковой моделью GPT-3, доступ к которой OpenAI предоставляет в очень ограниченном масштабе по запросу. Его поддержали другие читатели форума и предположили, что за thegentlemetre может стоять генератор текста Philosopher AI, построенный на GPT-3: сообщения преимущественно состояли из 6 абзацев, что совпадает с текстами, которые порождает сервис.

Позже догадку подтвердил разработчик Philosopher AI Мурат Айфер. thegentlemetre проделал реверс-инжиниринг iOS-приложения Philosopher AI и обошёл ввод капчи, а также создал бота, который автоматически создавал посты через его сервис, рассказал Айфер Gizmodo. Проблема была устранена, а «нейронные» посты два дня назад прекратились. За последние сутки с аккаунта thegentlemetre было написано только два ответа — по одному предложению.

AskReddit насчитывает 30+ млн пользователей. Искусственному интеллекту удавалось обманывать ничего не подозревающих форумчан, которые всерьёз обсуждали его посты, больше недели.

Хотя большинство сообщений бота, отмечает The Next Web, были вполне безобидны и даже забавны, иногда он скатывался в конспирологию и истории про иллюминатов или рассуждал на щекотливые темы, например самоубийства. Тем не менее этот случай ещё раз продемонстрировал, что опасения OpenAI были не напрасны, и по мере своего совершенствования технологии порождения речи могут научиться ещё лучше обманывать и манипулировать людьми, а злоумышленники — лучше заметать следы.

Хотите сообщить важную новость? Пишите в Телеграм-бот.

А также подписывайтесь на наш Телеграм-канал.

Читайте также

Мужчина «воссоздал» умершую невесту с помощью GPT-3. Бот помог лучше терапии
Мужчина «воссоздал» умершую невесту с помощью GPT-3. Бот помог лучше терапии
Мужчина «воссоздал» умершую невесту с помощью GPT-3. Бот помог лучше терапии
Теперь ИИ-алгоритмы NVIDIA и AMD можно сравнить в одной игре. Результат — выигрывает машинное обучение
Теперь ИИ-алгоритмы NVIDIA и AMD можно сравнить в одной игре. Результат — выигрывает машинное обучение
Теперь ИИ-алгоритмы NVIDIA и AMD можно сравнить в одной игре. Результат — выигрывает машинное обучение
OpenAI распустила команду робототехники, потому что у нее недостаточно данных
OpenAI распустила команду робототехники, потому что у нее недостаточно данных
OpenAI распустила команду робототехники, потому что у нее недостаточно данных
Discord купил сервис Sentropy, который использует ИИ для модерации контента
Discord купил сервис Sentropy, который использует ИИ для модерации контента
Discord купил сервис Sentropy, который использует ИИ для модерации контента
1 комментарий

Обсуждение

Комментариев пока нет.
Спасибо! 

Получать рассылки dev.by про белорусское ИТ

Что-то пошло не так. Попробуйте позже