Хотите дальше читать devby? 📝
Support us

Microsoft запускает детектор дипфейков перед выборами в США

Оставить комментарий

Microsoft презентует инструмент для обнаружения дипфейков на видео и фотографиях. Программа Video Authenticator определяет вероятность того, что медиафайл подвергся манипуляциям. Компания считает, что разработка не только комплексно поможет бороться с дезинформацией, но и защитит кандидатов на президентских выборах 2020 года. 

Как работает детектор дипфейков

В некотором смысле программа работает схоже с методам выявления дипфейков на фото. Проверить на подлинность статичный кадр — относительно просто, но движение объектов на видео создает дополнительную сложность. Video Authenticator разбивает видео на кадры и проверяет каждый из них.

Программа обнаруживает границу наложения дипфейка, которую не сможет различить человеческий глаз: незначительные изменения цвета и небольшие кластеры пикселей (артефактов). После анализа видео или фото, программное обеспечение выдает оценку подлинности в процентах. 

Чтобы обучить Video Authenticator и улучшить алгоритмы по распознаванию дипфейков, компания использовала FaceForensics++. Это набор обработанных мультимедийных данных от Google. Для его сбора компания сняла видео с участием 28 актеров, а затем с использованием AI было сгенерировано 3 тысячи фальшивых видео. 

Затем Microsoft протестировала Video Authenticator на датасете DeepFake Detection Challenge, который искусственный интеллект Facebook создал в рамках конкурса. Тогда Facebook наняла актеров, чтобы они снялись в сотне тысяч видеоклипов. Лица в клипах потом были заменены с применением различных методов, от Deep Learning до простых цифровых манипуляций.

Дипфейки и выборы в США 

Хоть дипфейки не всегда создаются для причинения вреда, они могут зажить собственной жизнью по мере распространения в интернете и обмануть ничего не подозревающих зрителей. Выявление визуальной дезинформации по-прежнему является проблемой. Тем не менее компании продолжают работать над ПО для обнаружения дипфейков.

«Тот факт, что дипфейки создаются AI, который может обучаться вечно, усложняет их выявление. В краткосрочной перспективе, например, на предстоящих выборах в США, передовые технологии могут стать полезным инструментом, который поможет пользователям выявлять дипфейки», — замечают Microfost в посте-анонсе Video Authenticator.

Forbes пишет, что Трам обеспокоен проблемой дезинформацией в ходе предстоящих президентских выборов. Считается, что «рекламные» кампании, направленные на то, чтобы обманом заставить избирателей голосовать в неподходящем месте или не в то время, могу лишить избирательных прав большое количество американцев.

Стоит заметить, что Трамп и сам частенько распространяет фейки с соперником, кандидатом в президенты Джо Байденом. В одну из таких выходок президент ретвитнул видео с телеинтервью, во время которого Байден будто бы засыпает. Видео оказалось смонтированной фальшивкой.

В любом случае создать правдоподобный дипфейк предвыборных выступлений кандидатов или видеозвонков на данный момент почти невозможно. Исследования показали, что сбои в работе дипфейков часто случаются, когда субъект на видео запечатлены в профиль, быстро перемещается или разворачивается на 45 градусов и более.

Помогаете devby = помогаете ИТ-комьюнити.

Засапортить сейчас.

Читайте также
Тысячи людей притворяются сотрудниками Binance в LinkedIn
Тысячи людей притворяются сотрудниками Binance в LinkedIn
Тысячи людей притворяются сотрудниками Binance в LinkedIn
Авторы фильма с помощью дипфейков убрали 30 фраз со словом «f*ck», чтобы смягчить возрастной рейтинг
Авторы фильма с помощью дипфейков убрали 30 фраз со словом «f*ck», чтобы смягчить возрастной рейтинг
Авторы фильма с помощью дипфейков убрали 30 фраз со словом «f*ck», чтобы смягчить возрастной рейтинг
1 комментарий
Физик выдал выдал фото колбасы за снимок телескопа «Джеймс Уэбб». Пранк зашел слишком далеко
Физик выдал выдал фото колбасы за снимок телескопа «Джеймс Уэбб». Пранк зашел слишком далеко
Физик выдал выдал фото колбасы за снимок телескопа «Джеймс Уэбб». Пранк зашел слишком далеко
Домохозяйка из Китая 10 лет сочиняла выдуманную историю России в «Википедии»
Домохозяйка из Китая 10 лет сочиняла выдуманную историю России в «Википедии»
Домохозяйка из Китая 10 лет сочиняла выдуманную историю России в «Википедии»

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.