Поддельные видео и фотографии все чаще используются злоумышленниками для обмана людей, и эта проблема очень беспокоит компанию Adobe, которая и является разработчиком популярных графических редакторов. На данный момент она, совместно с учеными из Калифорнийского университета в Беркли, разрабатывает искусственный интеллект для распознавания фальшивых фотографий и отмены всех внесенных в них изменений — в конечном итоге разработчики хотят получить оригинальную картинку. Прототип инструмента для отмены ретуши уже создан, и уже демонстрирует интересные результаты.
Инструмент основан на работе нейронной сети, которая ясно видит отличия между отредактированными и оригинальными фотографиями. Чтобы обучить ее, разработчики использовали базу с парными фотографиями, одна из которых не имеет никаких исправлений, а другая — отредактирована при помощи инструмента Photoshop Liquify для деформирования лиц.
Инструмент Photoshop на основе нейронных сетей
Такой тип изменения фотографий разработчикам был особенно интересен, потому что пара-тройка нажатий мыши способны полностью изменить выражение лица человека. Отредактировав фотографии таким образом, мошенники могут легко ввести людей в заблуждение, и это было доказано в ходе эксперимента. Исследователи собрали добровольцев, и предложили им угадать, настоящая перед ними фотография, или нет. Особую бдительность продемонстрировали только 53% людей, а остальные не обнаружили ничего подозрительного. Искусственный интеллект Adobe, в свою очередь, распознал фальшивки с 99% точностью.
Разработчики уверяют, что искусственный интеллект может даже показать, как нужно отредактировать фальшивки, чтобы вернуть их в исходное состояние. Однако, на данный момент его рекомендации дают смешанные результаты.
Идея волшебной универсальной кнопки «отменить», чтобы вернуть изображение в исходное состояние, все еще далека от реальности. Но мы живем в мире, где становится все сложнее доверять потребляемой нами цифровой информации, и я с нетерпением жду дальнейшего изучения этой области исследований, — поделился Ричард Чжан, сотрудник компании Adobe.
Остановить распространение фальшивых новостей крайне сложно
Вероятно, это первое в своем роде исследование, в ходе которого ученые хотят создать инструмент для выявления фальшивых фотографий. К сожалению, даже если такой инструмент будет создан, он не сможет искоренить распространение фальшивых новостей — даже будучи разоблаченной, подделка все равно может попасть в социальные сети и заставить людей поверить неверную информацию.
Хотя мы гордимся тем влиянием, которое Photoshop и другие продукты Adobe оказали на мир, мы также признаем этические последствия наших технологий. Поддельный контент — серьезная и все более актуальная проблема, — поделилась компания Adobe в своем блоге.
Обман в социальных сетях при помощи фальшивых фото
Один из первых случаев обмана пользователей интернета при помощи фальшивой фотографии был описан информационным агентством Associated Press. В социальной сети LinkedIn был обнаружен профиль девушки по имени Кэти Джонс — определить, что под этим аккаунтом скрывается потенциальный шпион, смогли немногие. Однако, распознать фальшивую фотографию оказалось довольно легко — она была создана при помощи нейронной сети и имела особенности, о которых можно почитать в нашем материале.
Как вы думаете, способны ли вы определить, настоящая перед вами фотография, или поддельная? Поговорить на эту тему можно в комментариях, или же в нашем Telegram-чате.
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.
» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам. Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+