Часть 2. «Deepfake» технологии: начало.

Авторы: к.э.н. Мун Д.В., к.т.н. Попета В.В.

В декабре 2017 года сотрудники исследовательского центра NVIDIA – одного из пионеров освоения возможностей искусственного интеллекта – опубликовали на страницах своего сайта статью, в которой продемонстрировали, как можно при помощи GAN — генеративно-состязательных нейросетей — полностью видоизменять исходное цифровое фото, превратив исходные зимние пейзажи в летние. В отличие от «банального» фотошопа, подделку которого человек может распознать невооруженным взглядом, разработанный в NVIDIA алгоритм «глубокого» нейросетевого машинного обучения фактически позволял создавать новую цифровую реальность. На продемонстрированных картинках, созданных при помощи технологии «глубинного обучения» (англ. Deep learning), даже эксперты не смогли опознать подделку.

Неделю спустя на популярном социальном новостном сайте Reddit появились ссылки на порнографическое видео, на котором одна из самых известных и высокооплачиваемых голливудских актрис Галь Гадот занимается сексом со своим «сводным братом». Автор оказавшегося поразительно достоверным фейкового видео, скрывающийся под ником Deepfakes, моментально стал чрезвычайно популярен. В последовавших за скандальной публикацией многочисленных интервью Deepfakes не только рассказал о себе, но и раскрыл общественности, как он создал свое «творение». Человек, который скрывается под данным ником – рядовой, ничем не выделяющийся программист, который признался, что использовал идеи и алгоритмы NVIDIA для того, чтобы просто воплотить свои эротические фантазии. Понятное дело, что Галь Гадот, будучи одних самых красивых и успешных женщин мира, не только никогда не снималась в «домашнем порно» у Deepfakes, но даже не была уведомлена последним о том, что стала «главной героиней» его «кино для взрослых». Программист-эротоман для создания своего «шедевра» воспользовался обычным порнофильмом, в котором на тело неизвестной порноактрисы наложил изображения лица Гадот, позаимствованные из открытых источников: многочисленных фото и видеоматериалов из Гугла и YouTube. Deepfakes пояснил, что созданием таких роликов может заниматься каждый, кто умеет пользоваться интернетом и понимает принципы работы генеративно — состязательных нейросетей. Он также назвал программное обеспечение (которое бесплатно и находится в открытом доступе), использовавшееся для создания нового жанра в порноиндустрии, названного в последствии в его честь «Дипфейк» (англ. deep ‒ глубокий, и fake ‒ подделка).

Скриншот рекламы с сайта Reddit

Менее чем через месяц создание дипфейковых порновидеороликов со «звездами» превратилось в мощную индустрию. Ролики с любыми исходными «лицами» стали делать быстро, дешево, на заказ. И хотя юристы призывают «оскорблённых звезд» подавать на новоявленных «порнорежиссеров» в суд за незаконную обработку персональных данных, «звезды», памятуя об известном «Эффекте Стрейзанд» (социальный феномен, выражающийся в том, что попытка изъять определённую информацию из публичного доступа приводит лишь к её более широкому распространению в интернете. Источник: The Streisand Effect and Censorship Backfire, International Journal of Communication 9 (2015): 656—671.), не торопятся выступать с официальными опровержениями, дабы не привлекать в данном контексте лишнего внимания к своим персонам со стороны пользователей всемирной сети.

Эволюция дипфейка: а теперь серьёзно…

И было бы, наверное, все хорошо, если бы дело ограничилось только дипфейковым порно. Однако в скором времени у мира появятся куда более серьезные проблемы, чем несанкционированное использование домашними эротоманами находящихся на всеобщем обозрении «персональных данных» звезд гламура и кино в сочетании с бесплатными сетевыми возможностями искусственного интеллекта.

Как мы уже ранее упоминали, с нынешнего года мобильное видео выходит на первое место как самый простой способ потребления информации. И главным «хабом» — распространителем этого видео является YouTube — самый популярный видеохостинг в мире.

Летом 2018 года рекордсменом по просмотрам на YouTube стало видеообращение, на котором бывший президент США Барак Обама публично оскорбляет действующего президента США Дональда Трампа. Мир буквально взорвался от такой горячей новости и сразу же разделился на два активно противоборствующих лагеря: на тех, кто поддерживал Обаму, считая, что Трамп «получил по заслугам», и тех, кто был уверен, что ни Обама, ни кто-либо другой не должен позволять себе подобных высказываний.

Видео было настолько достоверным, что поначалу никто не поверил, что оно является подделкой. Дипфейк-подделкой. Обама за свои два президентских срока много чего наговорил, и в открытом доступе находится большое количество цифрового фото и видео с его непосредственным участием. Однако Трампа он никогда не оскорблял. И в данном конкретном случае он вообще оказался ни при чем.

Авторами провокационного ролика выступили американский комик и режиссер Джордан Пил и новостная интернет-медиа компания BuzzFeed. Дипфейк-видео, едва не ставшее поводом для «гражданской войны» между сторонниками республиканцев и демократов, было создано Пилом при помощиграфического редактора Adobe After Effects и простой бесплатной программы Fakeapp, выложенной в открытом доступе на вышеупомянутом сайте Reddit для всех желающих самостоятельно поупражняться в создании «порно со звёздами».

По словам Пила, главная цель, которую он, как режиссер, преследовал при создании своего «фильма», благородна: предупредить людей о том, что «настали опасные времена. В будущем мы должны быть более бдительными в вопросе, чему верить в сети. Это время, когда мы должны полагаться на авторитетные новостные источники, которым стоит доверять»,заключил Пил в конце своего скандального видеоролика устами Обамы4.

Вверху: вы не поверите, что Обама говорит на этом видео! Дипфейк Видео: BuzzFeedVideo
Скриншот с обучающего видео в Ютубе, на котором объясняется, как работать с прораммами по созданию «дипфейков»

В непременно следующих за подобными эпизодами интервью журналистам Джордан Пил также поведал следующее: «Я знал, что это возможно, но не был уверен, действительно ли это сработает. Когда оно сработало, я подумал: «Это безумие! Посмотрите на это! Знаете, пока это еще достаточно сложно, но это гораздо легче, чем должно быть».

Сегодня, с учетом количества и качества исходного цифрового материала, хранящегося во всемирной сети и доступного каждому, а также не только политики и селебритиз, но и любой рядовой пользователь соцсетей, имевший ранее неосторожность выложить свои селфи и/или видео на всеобщее обозрение, рискует стать жертвой не просто розыгрыша, но и серьезной провокации или мошенничества.

Преступники не дремлют: они активно осваивают современные информационные технологии. И вот уже всемирные новостные ленты начали наполняться описаниями случаев подделки голосов директоров и СЕО, по устному указанию которых сотрудники переводили деньги мошенникам; «дипфейковых видео» со звездами экрана, призывающих перейти по ссылке и получить приз, и так далее.

Но самой большой опасностью, по мнению профессионалов информационной безопасности, являются дипфейки, которые будут использованы при ведении грядущих информационных войн. Так, профессор Калифорнийского университета в Лос-Анджелесе Джон Вильясенор утверждает, что «технология deepfake станет мощнейшим инструментом в руках тех, кто захочет дезинформировать массы и напрямую влиять на политический процесс». В свою очередь, американские военные считают, что самой перспективной разработкой являются редактирование и вбросы противникам поддельных спутниковых фото и видео, которые смогут их быстро дезориентировать и повергнуть мир в полный хаос.

В интернете уже несколько раз появлялись «пробные» видеоролики анонимных «энтузиастов», на которых руководители двух ядерных супердержав: президент США Дональд Трамп и президент России Владимир Путин сообщают о планах глобальных вооруженных нападений. Многим зрителям хватило ума отнестись данным видео как к провокационным розыгрышам и не распространять панику в сети. Этому способствовало и низкое качество представленных на «суд общественности» доказательств.

Однако нейросетевые технологии машинного обучения стремительно совершенствуются, на основании чего можно сделать вывод, что создание абсолютно достоверных «дипфейк-видео», которые будет невозможно, подвергнув экспертизе, отличить от реально снятых кадров, не «за горами».

Если верить прогнозу одного из пионеров всемирной индустрии дипфейк-видео, профессораХао Ли, «счет идет на месяцы, а не на годы. А это значит, что правдоподобные дипфейки, неотличимые от реальности, появятся во время предвыборной кампании в США — и, вполне возможно, изменят ее ход». Также в недавнем интервью CNBC Хао Ли отметил, что «такие дипфейки смогут создавать обычные пользователи без особой технической подготовки или уникального оборудования, и у нас есть лишь от шести до 12 месяцев, чтобы научиться распознавать подделки» (Мун, Д.В. От «Титаника» до «Зимней вишни». Алгоритмы грядущих катастроф : 3-е изд., доп. и перераб. – Москва ; Берлин : Директ-Медиа, 2018. – 352 с. ISBN 978-5-4475-9669-9).

Сто секунд до конца света…

Было бы неверно утверждать, что проблеме создания специальных программ — «противоядия против дипфейков» — не уделяется должного внимания со стороны правительств, корпораций и частных лиц. Но к сожалению, как это постоянно происходит в истории, сначала люди изобретают технологию, и лишь потом задумываются, как себя обезопасить от нее. Средства безопасности и защиты человека от достижений технического прогресса всегда сильно запаздывают в погоне за технологическим прогрессом. Сначала люди освоили огонь: и лишь тысячелетия спустя додумались изобрести огнетушитель и стали организовывать профессиональные пожарные команды; люди начали производить автомобили, разгоняющиеся до ста и более километров в час, и лишь десятилетия спустя изобрели трехточечный ремень безопасности10; люди научились извлекать энергию из деления ядер урана, но до сих пор так и не научились эту энергию контролировать. А к чему могут привести «шалости и игры» дилетантов с неизведанными пока возможностями искусственного интеллекта – даже страшно себе представить…

И совсем не случайно стрелки знаменитых «Часов Судного дня» (англ. Doomsday Clock– проект, начатый в 1947 году в Чикаго учеными, создавшими первый в мире атомный реактор и атомную бомбу) 23 января 2020 года были передвинуты в самое близкое к полуночи положение за всю их историю. До момента, когда часы пробьют «полночь», символизирующую собой уничтожение жизни на планете, осталось всего сто секунд. Это печальный рекорд нашего времени.

Экспертная комиссия по переводу «Часов Судного дня», в составе которой 18 Нобелевских лауреатов, обосновывая свое решение, заключает, что сегодня мировые лидеры все менее способны противостоять все более вероятным угрозам ядерной войны, в том числе из-за нарастающих информационных войн в киберпространстве, роста числа фейковых новостей и спланированных кампаний по дезинформации в интернете.

«Наша близость к катастрофе сейчас выражается в секундах — не в часах и даже не в минутах… Мы сейчас сталкиваемся с настоящей чрезвычайной ситуацией — абсолютно неприемлемым состоянием дел в мире, которое не оставляет возможности для ошибок или задержек [с исправлением положения]», утверждает исполнительный директор издания Bulletin of the Atomic Scientists Рэйчел Бронсон.

Впрочем, сегодня не обязательно быть мировым лидером, чтобы запустить одним нажатием кнопки «репост» необратимый процесс распространения очередного «забавного фейка», который может начать на планете ядерную войну.

Вместо заключения.

Испокон веков владеющие знанием люди чрезвычайно осторожно относились к идее неограниченного распространения информации. Многие века доступ к информации и знаниям существовал лишь для избранных, его хранили в тайне, оберегали от доступа к нему нежелательных лиц. В ряде случаев информацию даже намеренно уничтожали: чтобы оно не стало достоянием неблагонадежных лиц, способных развязать войну, посеять раздоры или узурпировать власть.

Но сегодня неуправляемое распространение недостоверной и непроверяемой информации начинает подрывать сами фундаментальные основы существования общества: взаимное доверие, доверие к государственным институтам, репутацию и авторитеты, презумпцию невиновности etc.

Конечно, некоторые страны оперативно реагируют на информационные угрозы. Например, в Китае уже приняли закон, запрещающий с 1 января 2020 года публиковать фейковые новости и вводящие в заблуждение «дипфейковые» видео, созданные с помощью искусственного интеллекта. За публикацию вводящих в заблуждение роликов предусмотрена уголовная ответственность.

Однако в настоящее время скорость распространения информации на порядок выше, чем оперативность реагирования на нее в виде проведения проверки, экспертизы и при необходимости создания соответствующего опровержения (с учетом того, что алгоритмы экспертизы дипфейков ещё предстоит разработать и внедрить). Поэтому кого, как и за что будут судить – вопрос весьма дискуссионный.

Впрочем, есть и другой путь. По большому счёту, люди уже порядком устали от «фейковых новостей». Так, согласно результатам социологического опроса, проведенного в США авторитетным Pew Research Center, 68% процентов американцев считают, что «фальшивая» информация влияет на доверие сограждан к государству, а 54% уверены, что фейки полностью разрушают доверие между людьми. При этом более половины опрошенных считают «фейк ньюс» главной проблемой в современном мире.

И пока не началось внедрение тотальной государственной информационной цензуры с целью «защиты нас от нас самих», выход есть только один. Фейки как опасный социальный феномен исчезнут только тогда, когда в сознании большинства людей перестанут быть занятием социально поощряемым.

Поэтому авторы статьи убеждены, что решение проблемы недостоверной информации в эпоху «горизонтальных медиа» также должно быть «горизонтальным». То есть идти не «сверху — вниз», через трансляцию рекомендаций от правительств, элит и «официальных авторитетов», а «снизу — вверх», через постижение каждым «рядовым» пользователем «информационной вселенной» этических основ информационной культуры личности (Лопатина Н.В. Современная информационная культура и информационные войны // Научно-техническая информация. Сер.1. – 2014. — №7. – С.1-4.), ведущих к осознанию своей неизбежной персональной ответственности за каждое произведенное действие во всемирной сети и пониманием того, что одном нажатием «кнопки репост» можно не только развязать ядерную войну, но и её предотвратить.