Предполагая, что артефакты и неестественные элементы не существуют в рассматриваемых средствах массовой информации и что средства массовой информации неразличимы для человеческого глаза, единственный способ сделать это - отследить источник изображений.
Можно провести аналогию с атакой DoS (отказ в обслуживании), когда абсурдное количество запросов отправляется с одного IP-адреса на один сервер, что приводит к его аварийному завершению. Распространенным решением является honeypot, где большое количество запросов от одного IP перенаправляется на ложный сервер, где даже в случае сбоя время безотказной работы не подвергается риску. Некоторое исследование было сделано на этих линиях, где в этой статье говорилось о проверке цифровой подписи изображения или на этой, где они предложили обнаружение подделанного изображения и идентификацию исходной камеры.
После прослеживания до источника, если абсурдное число потенциально поддельных изображений происходит из единственного источника, это должно быть подвергнуто сомнению.
Общий страх возникает, когда мы имеем дело с чем-то по аналогии, например, с атакой DDoS (распределенный отказ в обслуживании), когда каждый поддельный запрос исходит из распределенного источника - Network Security нашла способы справиться с этим, но безопасность и обнаружение мошенничества с точки зрения ИИ просто не установлено.
По сути, для хорошо продуманных искусственных носителей для конкретных злонамеренных целей сегодня довольно трудно поймать - но в настоящее время ведется работа по обеспечению безопасности в ИИ. Если вы планируете использовать искусственные носители в злонамеренных целях, я бы сказал, что сейчас самое подходящее время.
Эта безопасность была предметом озабоченности немного сейчас. Статья написана ученым данные цитаты
Deepfakes уже использовались, чтобы попытаться запугивать и оскорблять женщин через поддельные порно видео. Этот термин на самом деле происходит от имени пользователя Reddit, который создавал эти видео, создавая генеративные состязательные сети (GAN) с использованием TensorFlow. Теперь представители разведки говорят о возможности использования Владимиром Путиным фальшивых видеороликов для влияния на президентские выборы 2020 года. Проводятся дополнительные исследования глубинных подделок как угрозы демократии и национальной безопасности, а также способов их обнаружения.
Примечание: я совершенно не разбираюсь в сетевой безопасности, все мои знания получены из одного разговора с другом, и я подумал, что это будет хорошей аналогией для использования здесь. Простите за любые ошибки в аналогии и исправьте, если возможно!
Техники, которые вы упоминаете, используют GAN. Основная идея GAN состоит в том, что у вас есть генератор и дискриминатор. Генератор генерирует новый контент, дискриминатор должен сказать, является ли контент реальными данными или он был сгенерирован.
Дискриминатор намного мощнее. Не должно быть слишком трудно обучить дискриминатора для обнаружения подделок. Тренировать модель, которая способна точно определить манипуляцию и понять ее, является доказательством манипуляции сложнее. Невозможно получить доказательство того, что чем-то не манипулируют.
О том, как вы справляетесь с фотошоповыми изображениями: вы смотрите на различия в уровнях сжатия изображения. Ключевое слово для поиска - криминалистика изображения: http://fotoforensics.com/tutorial-estq.php
источник