Какая тактика для распознавания искусственно созданных СМИ?

12

С растущей способностью дешево создавать поддельные картинки, поддельные звуковые фрагменты и поддельное видео становится все более актуальной проблема распознавания того, что реально, а что нет. Даже сейчас мы видим ряд примеров приложений, которые создают поддельные носители за небольшую плату (см. Deepfake , FaceApp и т. Д.).

Очевидно, что если эти приложения используются неправильно, они могут быть использованы, чтобы запятнать образ другого человека. Deepfake может быть использован, чтобы заставить человека выглядеть неверным своему партнеру. Можно использовать другое приложение, чтобы политик сказал что-то противоречивое.

Какие методы можно использовать для распознавания и защиты от искусственно созданных носителей?

Эндрю Батлер
источник

Ответы:

2

Область Digital Media Forensics (DMF) направлена ​​на разработку технологий для автоматической оценки целостности изображения или видео, поэтому DMF - это та область, которую вы ищете. В DMF существует несколько подходов: например, подходы, основанные на методах машинного обучения (ML), в частности, сверточные нейронные сети (CNN).

Например, в статье Deepfake Video Detection Using Recurrent Neural Networks (2018) Дэвид Гуэра и Эдвард Дж. Дельп предлагают двухэтапный анализ, состоящий из CNN для извлечения функций на уровне кадра, с последующим отслеживанием во времени RNN для захвата временные несоответствия между кадрами, представленные инструментом Deepfake. Более конкретно, они используют сверточную архитектуру LSTM (CNN в сочетании с LSTM), которая проходит сквозную подготовку, так что CNN изучает функции в видео, которые передаются в RNN, которая пытается предсказать вероятность из тех функций, принадлежащих к поддельному видео или нет. Раздел 3 объясняет создание фальшивых видео, что приводит к несоответствиям между видеокадрами (которые используются в предлагаемом способе) из-за использования изображений с различными условиями просмотра и освещения.

Другие подобные работы были предложены. См. Этот список кураторов https://github.com/aerophile/awesome-deepfakes для получения дополнительных статей.

нбро
источник
1

Я думаю, что здесь важен контекст. Использование тактики, подобной той, которая использовалась в Скотланд-Ярде на протяжении столетия, возможно, является наилучшим способом. Создание алиби, реалистичные сроки, мотивы. Для юридического урегулирования было бы возможно доказать, что эти изображения были поддельными, используя методы как это. С точки зрения ИТ может быть возможно точно определить происхождение этих изображений. Если тысячи двуличных изображений были получены из одного источника, то любые изображения этого происхождения являются подозрительными.

Я думаю, что в целом мы должны переучиваться, чтобы не верить всему, что видим. Существует так много способов подделки изображений, что фотография больше не может считаться лучшим доказательством происходящего. Мы не должны игнорировать все изображения, а вместо этого искать внешнее совпадение фактов, прежде чем делать выводы. Если все факты указывают на происходящее, то эта фотография, вероятно, будет реальной.

Технический блог Натана Эггерса
источник
0

Предполагая, что артефакты и неестественные элементы не существуют в рассматриваемых средствах массовой информации и что средства массовой информации неразличимы для человеческого глаза, единственный способ сделать это - отследить источник изображений.

Можно провести аналогию с атакой DoS (отказ в обслуживании), когда абсурдное количество запросов отправляется с одного IP-адреса на один сервер, что приводит к его аварийному завершению. Распространенным решением является honeypot, где большое количество запросов от одного IP перенаправляется на ложный сервер, где даже в случае сбоя время безотказной работы не подвергается риску. Некоторое исследование было сделано на этих линиях, где в этой статье говорилось о проверке цифровой подписи изображения или на этой, где они предложили обнаружение подделанного изображения и идентификацию исходной камеры.

После прослеживания до источника, если абсурдное число потенциально поддельных изображений происходит из единственного источника, это должно быть подвергнуто сомнению.

Общий страх возникает, когда мы имеем дело с чем-то по аналогии, например, с атакой DDoS (распределенный отказ в обслуживании), когда каждый поддельный запрос исходит из распределенного источника - Network Security нашла способы справиться с этим, но безопасность и обнаружение мошенничества с точки зрения ИИ просто не установлено.

По сути, для хорошо продуманных искусственных носителей для конкретных злонамеренных целей сегодня довольно трудно поймать - но в настоящее время ведется работа по обеспечению безопасности в ИИ. Если вы планируете использовать искусственные носители в злонамеренных целях, я бы сказал, что сейчас самое подходящее время.

Эта безопасность была предметом озабоченности немного сейчас. Статья написана ученым данные цитаты

Deepfakes уже использовались, чтобы попытаться запугивать и оскорблять женщин через поддельные порно видео. Этот термин на самом деле происходит от имени пользователя Reddit, который создавал эти видео, создавая генеративные состязательные сети (GAN) с использованием TensorFlow. Теперь представители разведки говорят о возможности использования Владимиром Путиным фальшивых видеороликов для влияния на президентские выборы 2020 года. Проводятся дополнительные исследования глубинных подделок как угрозы демократии и национальной безопасности, а также способов их обнаружения.

Примечание: я совершенно не разбираюсь в сетевой безопасности, все мои знания получены из одного разговора с другом, и я подумал, что это будет хорошей аналогией для использования здесь. Простите за любые ошибки в аналогии и исправьте, если возможно!

ashenoy
источник
Было бы неплохо, если бы вы могли провести какое-то исследование и предоставить ссылку по крайней мере на 1 исследовательскую работу / статью, основанную на чем-то подобном (то есть, которая использует источник потенциально фальшивых видео).
nbro
Помимо статей, в которых говорится о потенциальном вреде и тех, которые обычно пытаются обнаружить артефакты, меньше статей, в которых делается то, что указано в ответе, например, этот или этот - как уже говорилось, обширные исследования по этим направлениям не проводились, но это будучи исследованным. Надеюсь, эти ссылки помогли!
ашеной
-1

Техники, которые вы упоминаете, используют GAN. Основная идея GAN состоит в том, что у вас есть генератор и дискриминатор. Генератор генерирует новый контент, дискриминатор должен сказать, является ли контент реальными данными или он был сгенерирован.

Дискриминатор намного мощнее. Не должно быть слишком трудно обучить дискриминатора для обнаружения подделок. Тренировать модель, которая способна точно определить манипуляцию и понять ее, является доказательством манипуляции сложнее. Невозможно получить доказательство того, что чем-то не манипулируют.

О том, как вы справляетесь с фотошоповыми изображениями: вы смотрите на различия в уровнях сжатия изображения. Ключевое слово для поиска - криминалистика изображения: http://fotoforensics.com/tutorial-estq.php

Мартин Тома
источник