Дипфейки: дезинформация или шаг в будущее?

Фото: youtube.com
Фото: youtube.com
Как устроены дипфейки, зачем они нужны и есть ли от них польза? На эти и другие вопросы ответил ведущий YouTube-канала «Индустрия 4.0» Николай Дубинин

Фейки на выборах и «воскрешение» из мертвых

Совсем недавно, на рубеже XX и XXI веков, сверхпопулярной была программа Photoshop. Теперь на смену ей пришли нейросети, а именно дипфейки (Deepfake). Эта технология куда опаснее, но также перспективнее прежней возможности грубо вырезать лица людей с фотографий и приклеивать их на другие снимки.

Технология дипфейков способна объединить фотографии человека и, например, сделать из них видео. Дипфейки давно проникли в политику. Например, в Мексике в 2017 году наркомафия убила журналиста Хавьера Вальдеса Карденаса, который писал о преступности и торговле наркотиками. Его «воскресили» с помощью дипфейка, и он смог обратиться к президенту страны с такими словами: «Сегодня, господин президент, у вас появилась возможность выделиться из толпы своих предшественников и наконец произвести настоящие перемены — дать нам правосудие и справедливость. Страна без правды — это страна без демократии. Несмотря на то, что они хотят заткнуть нам рты, — мы продолжаем говорить!»

Дипфейк журналиста Хавьера Вальдеса Карденаса обращается к президенту Мексики

Другая история произошла в 2020 году на выборах в Индии. В Дели лидер одной из оппозиционных партий Маноджа Тивари сделал заявление на хинди и на диалекте хариани. При этом говорить на этом языке он не умел. Пойти на обман Маноджа Тивари решился скорее всего из-за желания завоевать голоса рабочих-мигрантов в Дели. Они как раз говорят на диалекте хариани.

И подобных случаев уже много. В истории с лидером индийской оппозиции интересно то, что он так и не признался в использовании технологии: доказать это довольно сложно, вот и признаваться необязательно.

Еще один пример — фильм «Би-би-си» «Добро пожаловать в Чечню» про активистов, критикующих власть. Создатели картины не стали «замазывать» лица оппозиционеров, а наложили на них дипфейки активистов, живущих в Нью-Йорке.

Документальный фильм «Би-би-си» «Добро пожаловать в Чечню»

Можно ли вычислить дипфейки

Сложность в борьбе с нечестным использованием технологии заключается в том, что подделки будут становиться только качественнее.

Фото:youtube.com
Индустрия 4.0 Дипфейки: как трансформируется авторское право на контент

Дипфейк — это генеративно-состязательная сеть. В ней есть генератор и дискриминатор. Генератор создает подделку, а дискриминатор критикует и указывает на ее недостатки. После этих замечаний генератор снова приступает к работе. В итоге появляется очень точный фейк.

Выпуск YouTube-канала «Индустрия 4.0», посвященный дипфейкам

Некоторые страны приняли решение регулировать дипфейки законом.

  • В Китае в 2020 году ввели уголовную ответственность за введение людей в заблуждение с помощью дипфейков.
  • Калифорния приняла закон, запрещающий людям создавать дипфейки с использованием искусственного интеллекта, для введения в заблуждение избирателей во время выборов.
  • В штате Вирджиния был принят закон о порномести с запретом на использование дипфейков в порнографии.
  • Уголовный кодекс Франции предусматривает наказание за публикацию монтажа, сделанного со словами или изображением человека, без его согласия, если не очевидно, что это монтаж. Человек, публикующий дипфейк, может быть подвергнут санкциям, если только он не докажет, что искренне верил, что материал не был монтажом.

Фото:Shutterstock
Индустрия 4.0 Чек-лист: что делать, если ваше изображение использовали для дипфейка

В 2020 году Калифорнийский и Стэндфордский университеты смогли повысить точность выявления дипфейков до 97%. Ученые исследовали виземы и фонемы.

Виземы — визуальное выражение того, как произносится тот или иной звук. Условно — мы говорим что-то и наш рот как-то движется. Филологи пытаются сравнить виземы в дипфейках и в оригинальных видео. Действительно, виземы в дипфейках выглядят немного иначе. Если обучить алгоритмы на таком поле данных, точность распознавания подделки будет достаточно высокая.

Другой способ вычисления обмана — изучение того, как шумит реальное и поддельное видео. Шум в дипфейках немного другой, и часто это удается услышать.

Можно ли распознать дипфейк?

Другая сторона дипфейков

С помощью генеративных нейронных сетей можно создавать контент, используя минимальное количество данных. С этой точки зрения технология связана совсем не с «пересадкой» лиц для веселья, а с практической целью. Сейчас по одной фотографии и тексту возможно генерировать видео. Текст синтезируется в аудио, по аудио анимируются фотографии — в итоге мы получаем говорящего спикера. С помощью этого комплекса алгоритмов можно очень быстро создавать видеоконтент.

Дипфейки могут «воскрешать» любимых актеров. Например, Филип Сеймур Хоффман и Пол Уокер, умершие во время съемок фильмов с их участием («Голодные игры: Сойка-пересмешница» и «Форсаж 7» соответственно), были воссозданы в цифровом виде. А Кэрри Фишер «воскресили» для съемок в девятом эпизоде «Звездных войн».

Фото:mommie who loves to take photos / Flickr
Индустрия 4.0 Моральный кодекс: этично ли «воскрешать» актеров с помощью технологий

Мария Чмир, гендиректор Deepcake.io, утверждает, что скоро появится инструмент, который полностью изменит интерактивность. Сегодня все, что дают зрителям, — это выбрать концовку сериала. В будущем с помощью дипфейков мы сможем оказаться внутри киновселенной вместе со своими друзьями. Будет возможность и менять надоевших актеров. Ведь генеративные нейросети позволяют существенным образом редактировать, видоизменять и трансформировать контент.

Именно поэтому дипфейки — это не только манипуляция и дезинформация. С помощью них можно будет снимать фильмы со спецэффектами, оживлять персонажей и в целом добавить новый опыт потребления контента.

Обновлено 26.03.2021
Главная Лента Подписаться Поделиться
Закрыть