Событие может заслуживать тысячи слов, но больше всего публику убеждает аудио или видео. Когда партии с трудом могут договориться по фактам, такая убедительность воспринимается с радостью. Аудио- и видеоролики позволяют людям стать очевидцами событий, и при этом им не нужно задумываться, доверяют они чужому мнению или нет. Благодаря смартфонам, которые позволяют записывать аудио и снимать видео, а также соцсетям как платформам для обмена контентом, люди стали доверять собственным ушам и глазам в беспрецедентной степени.
В этом скрыта огромная опасность. Представьте себе видео, на котором премьер-министр Израиля в частной беседе с коллегой раскрывает план серии политических убийств в Тегеране. Или аудиозапись разговора иранских чиновников, которые планируют ликвидацию суннитских лидеров в одной из провинций Ирака. Или видео, как американский генерал в Афганистане сжигает Коран. В мире, подсевшем на насилие, такие записи обладают мощным провокационным потенциалом. А теперь представьте, что эти записи были сфабрикованы с помощью современных инструментов, доступных любому человеку, имеющему ноутбук и доступ в Интернет. Получившиеся фальшивки настолько убедительны, что их невозможно отличить от того, что происходит на самом деле.
Благодаря развитию цифровых технологий этот кошмар очень скоро может стать реальностью. Увеличивается количество «глубоких фейков» – очень реалистичных и трудно отличимых цифровых манипуляций с аудио и видео, становится невероятно просто изобразить, как человек говорит или делает что-то, чего на самом деле не было. Средства для создания глубоких фальсификаций будут быстро распространяться, все больше людей смогут использовать их в политических целях. Дезинформация – древнее искусство, которое обрело новое значение сегодня. Но с развитием и распространением глубоких фейков современные войны дезинформации вскоре будут напоминать пропаганду эпохи щитов и мечей.
Восход глубоких фейков
Глубокие фейки – это продукт последнего технологического прорыва, связанного с искусственным интеллектом и известного как «глубокое обучение», когда наборы алгоритмов – нейросети – учатся выводить правила и повторять схемы, обрабатывая большие массивы данных (Google, например, использовал эту технологию при разработке мощных алгоритмов классификации изображения для своих поисковых серверов). Глубокие фейки появляются из особого типа глубокого обучения, когда пары алгоритмов объединяются друг против друга в генеративно-состязательные сети (GAN). В такой сети один алгоритм, генератор, создает искусственный контент на основе базы данных (например, изображение котиков на основе реальных фотографий котов). Второй алгоритм, дискриминатор, пытается обнаружить искусственный контент (найти искусственные изображения котиков). Поскольку каждый из алгоритмов постоянно обучается, такой «спарринг» ведет к быстрому улучшению качества и позволяет GAN производить очень реалистичный, но фейковый аудио- и видеоконтент.
Эта технология обладает потенциалом для широкого распространения. Коммерческие и даже бесплатные сервисы глубоких фейков уже появились на открытом рынке, а версии с небольшой степенью защиты могут возникнуть и на черном рынке. Распространение таких сервисов снизит барьеры, и скоро единственным сдерживающим фактором станет доступ к обучающим материалам для GAN, т.е. аудио и видео человека, которого планируется смоделировать. Возможность создавать профессиональные подделки получит любой заинтересованный человек, обладающий необходимыми знаниями, в том числе куда обращаться за помощью.
Глубокие фейки могут иметь и достойное применение. Например, модифицированное аудио или видео исторической фигуры можно создавать для обучения детей. Одна компания заявила о возможности использовать эту технологию для воссоздания речи людей, потерявших голос вследствие болезни. Но глубокие фейки станут использовать в преступных целях. Так, с помощью этой технологии лица людей вставляют в порноролики. Упрощение создания фейкового аудио- и видеоконтента откроет возможности для шантажа, запугивания и саботажа. Но самым опасным может стать применение этой технологии в сфере политики и международных отношений. Она может использоваться для создания невероятно эффективной лжи, способной спровоцировать насилие, дискредитировать лидеров и институты, повлиять на результаты выборов.
Глубокие фейки обладают разрушительным потенциалом, поскольку появились в период, когда отличить факты от вымысла уже стало очень сложно. На протяжении большей части XX века журналы, газеты и телевидение управляли потоком информации для публики. Журналисты сформулировали жесткие профессиональные стандарты, чтобы контролировать качество новостей, а относительно небольшое количество СМИ означало, что ограниченное число людей и организаций имеют возможность распространять информацию. Но за последние 10 лет все больше людей стали получать информацию из соцсетей, прежде всего Facebook и Twitter, которые зависят от пользователей, генерирующих практически нефильтруемый контент. Пользователи склонны отбирать информацию, соответствующую их точке зрения (эту тенденцию усугубляют алгоритмы соцсетей), в результате соцсети превращаются в эхо-камеры. Кроме того, платформы подвержены так называемым информационным каскадам, когда люди делятся информацией, не заботясь о ее подлинности, из-за массовых репостов информация кажется надежной. В результате ложь распространяется быстрее, чем когда-либо раньше.
Благодаря этой динамике соцсети становятся питательной средой для циркуляции глубоких фейков с потенциально взрывоопасными последствиями для политики. Попытки России повлиять на исход президентских выборов в США в 2016 г. путем распространения провокационных сообщений через Facebook и Twitter уже продемонстрировали, насколько просто вбросить дезинформацию в соцсети. Глубокие фейки завтрашнего дня будут более живыми и реалистичными, поэтому ими станут делиться еще активнее, чем в 2016 году. Люди особенно склонны делиться негативной и новой информацией, поэтому чем непристойнее фейки, тем лучше.
Фальсификации и демократизация
Использование фальшивок, манипуляций и других видов обмана в целях воздействия на политику, конечно, не новость. Когда в 1898 г. в Гаванской бухте взорвался американский броненосец «Мэн», таблоиды использовали этот инцидент, чтобы настроить общество на войну с Испанией. Антисемитский трактат «Протоколы сионских мудрецов», описывающий несуществующий еврейский заговор, получил широкое распространение в первой половине XX века. В последние годы благодаря Photoshop редактировать изображение стало так же просто, как фальсифицировать текст. Беспрецедентность глубоких фейков заключается в сочетании нескольких факторов: высокое качество, применение в таких убедительных форматах, как аудио и видео, и сложность выявления. С распространением технологии глубоких фейков все больше акторов смогут убедительно манипулировать аудио- и видеоконтентом, что раньше было доступно только Голливуду и самым богатым спецслужбам.
Глубокие фейки особенно полезны негосударственным акторам – повстанческим и террористическим группировкам, которым исторически не хватает ресурсов для создания и распространения поддельного, но убедительного аудио- и видеоконтента. Эти сообщества смогут описывать своих противников, в частности правительство, используя оскорбительные высказывания и провокационные действия, контент можно тщательно подбирать для достижения максимального воздействия на целевую аудиторию. Например, группировки, связанные с ИГИЛ, могут создавать видео с американскими солдатами, которые расстреливают мирных граждан или обсуждают план бомбардировки мечети. Это позволит привлечь новых членов. Будет очень сложно доказать, что видео – подделка, особенно если аудитория уже не доверяет запечатленному на нем человеку. Государства, безусловно, тоже будут использовать глубокие фейки, чтобы подорвать позиции оппонентов.
Глубокие фейки также усугубят дезинформационные войны, которые все чаще вторгаются во внутреннюю политику США и других стран. В 2016 г. спонсируемая Россией кампания по дезинформации оказалась успешной и существенно обострила социальный раскол. Например, фальшивые аккаунты, якобы связанные с движением Black Lives Matter, распространяли в соцсетях провокационный контент, направленный на повышение расовой напряженности. В следующий раз вместо твитов и постов в Facebook будет использоваться дезинформация в форме липовых видео, на которых белый полицейский выкрикивает расовые оскорбления или активист Black Lives Matter призывает к насилию.
Но самая большая опасность связана с тем, что запущенные в нужное время глубокие фейки могут повлиять на исход выборов. В мае 2017 г. Москва попыталась предпринять нечто подобное. Накануне выборов во Франции российские хакеры попробовали сорвать президентскую кампанию Эммануэля Макрона, опубликовав серию документов, многие из которых оказались подделкой. Провалилось это по нескольким причинам, включая скучное содержание документов и действие французского закона о СМИ, который запрещает освещение выборов за 44 часа до голосования. Но в большинстве стран нет таких правовых норм, а сама природа глубоких фейков гарантирует, что контент будет оскорбительным и постыдным. Убедительное видео, на котором Макрон признается в коррупции, опубликованное в соцсетях за 24 часа до выборов, распространилось бы как лесной пожар, а доказать, что это подделка, просто не успели бы.
Глубокие фейки также могут подрывать демократию другими, опосредованными путями. Проблема не только в том, что они обостряют социальные и идеологические противоречия. Возникает так называемый дивиденд лжеца: люди знают о существовании глубоких фейков, и публичным фигурам, запечатленным на подлинных записях, будет проще подвергнуть эти записи сомнению. (Представьте, если бы глубокие фейки доминировали во время президентской кампании 2016 г. в США, Дональд Трамп с легкостью оспорил бы аутентичность аудиозаписи, где он хвастается приставаниями к женщинам.) Если общество осознает угрозу глубоких фейков, оно склонно меньше доверять новостям вообще. А журналисты будут с опаской относится к аудио и видео, связанным с быстро развивающимися событиями (не говоря уже об их публикации), потому что они могут оказаться фейком.
Глубокая наладка
Серебряной пули против глубоких фейков не существует. Есть несколько правовых и технологических подходов – некоторые уже существуют, другие могут появиться, – позволяющих смягчить угрозу. Но полностью решить проблему не удастся. Мы сможем лишь противодействовать распространению влияния глубоких фейков.
Особого внимания заслуживают три технологических подхода. Первый связан с экспертизой или выявлением подделок техническими средствами. Специалисты тратят много времени и сил на создание убедительных фейков, точно так же они смогут разрабатывать методы выявления фейков и улучшать их. В июне 2018 года компьютерные специалисты Дартмута и Университета Олбани объявили о создании программы, которая выявляет глубокие фейки, обнаруживая аномальное движение век, когда человек на видеозаписи моргает. Но в гонке глубоких фейков такие прорывы лишь способствуют новой волне инноваций. В дальнейшем GAN будут обучаться на примерах нормального моргания. И даже если появятся чрезвычайно мощные алгоритмы выявления, скорость распространения глубоких фейков в соцсетях превратит борьбу с ними в неравный бой.
Второе технологическое средство предполагает аутентификацию контента до его распространения – этот подход иногда называют цифровым атрибутированием. Такие компании, как Truepic, разрабатывают способы нанесения цифровых водяных знаков на аудио, фото и видео в момент их создания с помощью метаданных, которые постоянно хранятся в распределенном реестре или блокчейне. Иными словами, можно промаркировать контент аутентификационными данными, чтобы потом сравнить их с подозрительным видео.
В теории цифровая аутентификация – идеальное решение. На практике существуют два серьезных препятствия. Во-первых, технология должна быть доступна на огромном количестве устройств, создающих контент, включая ноутбуки и смартфоны. Во-вторых, ее использование должно стать обязательным условием при загрузке контента на популярные платформы – Facebook, Twitter и YouTube. И первое, и второе практически невыполнимо. При отсутствии соответствующих правовых норм производители устройств начнут устанавливать цифровую аутентификацию, только зная, что это не повлечет затрат, пользуется спросом и не вредит работе продукта. Немногие соцсети пойдут на блокирование загрузки неаутентифицированного контента, рискуя уступить свою долю рынка менее законопослушным конкурентам.
Третий технологический подход предполагает сервисы аутентифицированного алиби, которые вскоре могут появиться в частном секторе. Глубокие фейки особенно опасны для публичных людей – политиков и знаменитостей, репутация которых чрезвычайно уязвима. Чтобы защититься от глубоких фейков, многие из них согласятся на «лайфлоггинг» – запись практически всех аспектов своей жизни, и таким образом смогут доказать, где они находились, что говорили и делали в конкретный момент времени. Чтобы упростить лайфлоггинг, компании начнут предлагать портативные, в том числе нательные регистраторы, услуги хранения огромного объема полученных данных и надежную аутентификацию. Возможно, возникнет даже партнерство с крупными новостными сервисами и соцсетями для быстрого подтверждения подлинности контента.
Такая технология станет вторжением в частную жизнь, и многие не пойдут на это. Но помимо публичных фигур, которые согласятся на лайфлоггинг ради собственной защиты, и некоторые работодатели начнут настаивать, чтобы определенные категории сотрудников, например полицейские, носили нательные камеры. И даже если лишь небольшое число людей будет вовлечено в лайфлоггинг, появится огромный массив данных, в которых окажутся и все остальные. Будет создана масштабная сеть наблюдения друг за другом, фиксирующая все наши действия.
Закладывание правовых основ
Если эти технологические решения имеют ограниченные плюсы, то что можно сказать о правовых средствах? В зависимости от обстоятельств создание и распространение глубоких фейков ведет к оскорблению личности, мошенничеству, незаконному использованию внешних данных а также другим нарушениям норм гражданского и уголовного права. Теоретически оставшиеся пробелы можно ликвидировать путем введения к уголовной или гражданской ответственности за определенные действия – например, за создание глубокого фейка с реальным человеком с целью ввести в заблуждение зрителя или слушателя и в результате нанести определенный ущерб. Но доказать эти обвинения на практике будет сложно. Во-первых, очень трудно связать создание глубокого фейка с конкретным человеком или группой людей. И даже если злоумышленники идентифицированы, они могут оказаться вне досягаемости для суда – например, если они граждане другой страны.
Еще одно правовое решение предполагает стимулирование соцсетей к выявлению и удалению глубоких фейков и подозрительного контента. По нынешнему американскому законодательству, компании, владеющие этими платформами, не несут ответственности за размещенный контент благодаря Разделу 230 Закона о соблюдении приличий в СМИ 1996 года. Конгресс может внести поправки в раздел, чтобы компании несли ответственность за наносящую вред и фальсифицированную информацию, которая распространяется через их платформы, если они не предпринимают мер для ее выявления и удаления. В некоторых странах аналогичный подход используется для решения другой проблемы. Так, в 2017 году в Германии был принят закон о введении крупных штрафов для компаний-владельцев соцсетей, которые не удаляют расистский или иной опасный контент в течение 24 часов после сообщения о нем.
Однако такой подход имеет свои недостатки. Во-первых, он может привести к чрезмерной цензуре. Компании, стремящиеся избежать правовой ответственности, скорее всего будут слишком агрессивно отслеживать вес контент, а пользователи начнут придерживаться самоцензуры, чтобы их контент не удаляли. Попрание свободы слова вряд ли можно оправдать призрачным повышением защиты от фальсификаций. Кроме того, подобная система косвенным образом защитит крупные действующие платформы, обладающие ресурсами для отслеживания контента и ведения судебных разбирательств, от конкуренции с мелкими фирмами.
Сосуществовать с ложью
Мы приходим к логическому выводу: глубокие фейки несут множество проблем. С ростом интереса к технологиям качество глубоких фейков улучшится, сделать их станет дешевле и проще. Технологии будут предлагать коммерческие сервисы, а также на черном рынке, где производство глубоких фейков скоро может превратиться в отдельное направление. Результатом станет поток фальшивого, но очень реалистичного аудио- и видеоконтента, который можно использовать в политических целях и распространять через соцсети.
Глубокие фейки действительно опасны, но их воздействие не обязательно будет разрушительным. Способы выявления будут совершенствоваться, прокуроры и истцы – периодически выигрывать судебные тяжбы с создателями лжеинформации, а крупные соцсети постепенно начнут отслеживать и удалять фальшивый контент. Технология цифровой аутентификации – в случае ее массового применения – позволит в будущем существенно улучшить ситуацию.
А пока демократическому обществу нужно учиться противостоять фальшивкам. С одной стороны, необходимо осознать, что аудио- и видеоконтент нельзя принимать за чистую монету, с другой – нельзя скатиться в мир постправды, где граждане живут в собственных информационных пузырях и воспринимают только те факты, которые не противоречат их убеждениям. Демократия должна признать неудобную правду: чтобы справиться с угрозой глубоких фейков, нужно научиться сосуществовать с ложью.
Опубликовано в журнале Foreign Affairs, № 1, 2019 год. © Council on Foreign Relations, Inc.