Интервью,Лента событий Дата публикации:
0 отзывов

Эксперт Андрей Гуринов: Для создания deepfake-видео необязательно быть программистом

Соцсети в кыргызском сегменте интернета время от времени разрываются от всплеска эмоций после выброшенных шокирующих видеороликов. Понятно, что не все они отображают происходившее на самом деле, но бурную реакцию вызывают.

Отметим, что около двух лет назад в мире появилась программа Zao, которая легко меняет лица на видео. Тогда ее разработчики объяснили принцип действия программы. Нейросеть анализирует фрагменты лиц на исходном ролике, сопоставляет их с картинками из Google и роликами из YouTube и накладывает нужные фрагменты (метод Deepfake). Вероятно, и в Кыргызстане появились умельцы, которые научились создавать нейросеть. Редакция Elgezit.kg обратилась с вопросами к эксперту в области разработки программного обеспечения Андрею Гуринову.

— Какую опасность могут нести такие технологии «смены лица»?

— Проблема подделки (документов, купюр, дипломов) существовала и существует. Deepfake, или подмена лица — это просто новый инструмент подделки. Раз есть инструмент, то должно появиться понимание того, что теперь ролики, которые мы видим в интернете, с высокой долей вероятности могут быть ненастоящими. Это часть научного исследования, технический прорыв. Я бы не относился к этому изобретению исключительно как к хулиганскому.

— Как создать такое видео? Среднестатистическому пользователю ПК такое под силу?

— Я сам не пытался создавать такие видео, не пользовался Zao. Полагаю, что это все-таки требует определенных навыков. Но мы должны понимать: если сегодня это сложно, то буквально через два года это смогут делать все. За примером можно вернуться в двухтысячные. Когда мы хотели пририсовать чужую голову кому-то, это требовало определенных инженерных навыков. Сейчас эти программы, которые пририсовывают щенячьи уши, например, работают онлайн на телефоне. Я иной раз смотрю и поражаюсь: какие гениальные эти девушки из Instagram, что такие фотографии делают. А оказывается там даже делать ничего не надо…

— Есть способы отличить фейковый видеоролик от оригинала?

— Мы должны понимать, что это все довольно сыро. То есть те времена, когда эти приложения будут работать как настоящие, придут не скоро. Поэтому подделку пока еще отличить довольно просто. Во-первых, это видео точно будет плохого качества. Видео, которое подверглось фейку, наверняка будет умышленно замыленным — как будто его снимали грязной камерой, в темной комнате и в плохом разрешении. Во-вторых, для того чтобы воссоздать чужое лицо, нужно немыслимое количество фотографий этого человека, а еще лучше видеозапись, где он повторяет всю необходимую мимику с разных ракурсов. Только при наличии всего вышеперечисленного можно сделать достаточно правдоподобный фейк. Поэтому, думаю, что пока задача отличить фейк от оригинала довольно проста.

— Как вы считаете, в Кыргызстане уже есть разработчики, способные создать подобную нейросеть?

— Технология разработана, ее всего лишь нужно применить. Не обязательно быть программистом. Фактически это возможно, опять же если изучить и найти столько материала на одного человека. Есть ли у нас такие люди, которые смогли бы создать подобное? Да, есть! С интеллектуальным потенциалом у нас все хорошо. Однако люди, которые способны сделать такое, получают очень большую зарплату. И предполагать, что кто-то из них взялся бы просто из каких-то хулиганских мотивов за подобное, я бы не стал. Если такое видео сделано, то в него определенно вложена какая-то инвестиция, потому что бесплатно такое никто делать не станет.

— Как обезопасить себя от интернет-шантажа с помощью Deepfake?

— «Если у вас нету тети, то вам ее не потерять». Правила интернет-безопасности должны быть всем известны. То есть храните меньше личных данных, фотографий, видео. Помните, чем меньше о вас знают, тем меньше вам навредят. Но если человек априори публичный, то обезопасить себя вряд ли получится. Надо принять это как данность — мы сейчас живем в таком мире, подобное видео могут сделать про любого из нас.

Тем не менее, думаю, что это явление для нашей страны еще ново, поэтому вокруг него столько шума. А когда эти инструменты через какое-то время упростятся и станут легкодоступными, то все примут это как данность и не будут обращать внимания. Как обезопаситься? Ну, не знаю… Уехать жить на необитаемый остров без интернета.

Чем меньше о вас знают, тем меньше вам навредят. Но сколько это будет продолжаться, когда у нас нейронные сети дойдут до того, чтобы генерировать всю мимику по трем фотографиям — думаю, вопрос очень недалекого будущего. Надо просто научиться поскорее на это забивать.

Видеоролики сексуального характера – с ними все понятно. А что если будут использованы откровенно преступные вещи? То есть когда человека «приклеят» в видео, где происходит незаконная дрянь? Или, допустим, нет у злоумышленника кучи ваших фотографий. Так он может найти человека, очень похожего на вас, нарисует на нем татуировки, какие есть у вас, подгримирует, потом как-то доправит на компьютере. То есть компьютер в данном случае – просто инструмент. Всю эту ерунду можно делать и без него.

От Elgezit.kg. По информации портала TAdviser, в начале сентября 2019 года стало известно о выходе приложения Zao, которое, используя искусственный интеллект, позволяет вставить лицо пользователя в сцену из фильма. Приложение сразу набрало популярность среди бесплатных продуктов в китайском сегменте App Store.

Программа, используя искусственный интеллект, позволяет вставить лицо пользователя в сцену из фильма. Приложение обрабатывает все примерно за 10 секунд и заменяет лица главных героев на видео. Для этого достаточно загрузить всего одну фотография своего лица.


Подмена лица Леонардо Ди Каприо в фильме «Титаник»

Перед использованием Zao необходимо принять условия приложения, и, по мнению пользователей, там содержатся пункты, нарушающие их частную жизнь. Например, пользователь дает согласие на передачу разработчику прав на все ролики, созданные в приложении, даже если на них его лицо. Технологию Zao могут использовать для создания фейковых видео — например, чтобы манипулировать людьми во время избирательной кампании или же с целью оклеветать кого-то, либо даже с целью спровоцировать массовые беспорядки, распространяя недостоверную информацию в огромных масштабах.

Однако, несмотря на все возможности данного приложения, оно несовершенно. Отличить фейк от оригинала все еще возможно.

В Китае также обеспокоены, что технологию Zao могут использовать для создания фейковых видео — например, чтобы манипулировать людьми во время избирательной кампании или же с целью оклеветать кого-то, либо даже с целью спровоцировать массовые беспорядки, распространяя недостоверную информацию в огромных масштабах.

Добавить комментарий

Ваш e-mail не будет опубликован.