Что такое дипфейки
Дипфейк — это технология, представляющая собой фотореалистичное объединение изображений с помощью ИИ: алгоритм анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек. Нейросеть собирает из интернета фотографии человека с разными выражениями лица и создает из них новое изображение или видео. Сам термин deepfake демонстрирует смысл технологии через объединение двух понятий: глубокое обучение [нейросетей] (deep learning) и фальшивка (fake).
Какой вред могут принести дипфейки
С момента появления дипфейков в 2017 году их часто использовали в преступных целях. Вот в чем была замешана эта технология.
Порно и кибербуллинг
Дипфейки часто использовали для создания фальшивого порно с «участием» известных людей. Получившимся видео их могли шантажировать или просто пытаться скомпрометировать. Лица женщин вырезали из фотографий, найденных в сети, и интегрировали в порнографические видео. Эксперт по технологии Генри Аждер приводит конкретные данные: 96% дипфейков в интернете — порнография, причем в абсолютном большинстве из них используются женские лица и образы.
Политические манипуляции
Весной 2019 года в интернете опубликовали дипфейк со спикером Палаты представителей США демократкой Нэнси Пелоси. В видео она медленно говорила, за счет чего создавалась иллюзия, что она сильно пьяна. Республиканские эксперты и политики немедленно принялись критиковать спикера, почти начался скандал. Лишь через несколько дней оказалось, что речь Пелоси была сгенерирована ИИ.
Во время выборов в Великобритании в 2019 году художник Билл Постерс выпустил фейковое видео, в котором Борис Джонсон (тогдашний глава Консервативной партии Великобритании) говорил, что британцы должны голосовать за Джереми Корбина (в то время — лидера соперничающей с консерваторами Лейбористской партии).
Чем полезны дипфейки
Несмотря на все скандалы, не стоит клеймить технологию как абсолютно зло. Это всего лишь инструмент, который можно использовать и во вред, и во благо. Вот какую пользу могут приносить дипфейки.
Помогать людям с отсутствием воображения
Инженеры-исследователи Кейт Глазко и Ивэй Чжэн используют дипфейки для помощи людям с афантазией. В этом состоянии у человека нет воображения, и он не может создавать абстрактные образы в своей голове. Ученые с помощью дипфейков воспроизводят разные жизненные обстоятельства, в которые может попасть такой человек. Это помогает людям с афантазией прорепетировать потенциально стрессовую ситуацию и за счет этого снизить тревогу.
Способствовать политическим и общественным преобразованиям
Политические дипфейки способны быть инструментом позитивных преобразований в обществе. Например, родители Хоакина Оливера, погибшего из-за стрельбы в школе во Флориде в 2018 году, использовали эту технологию и внедрили образ мальчика в эмоциональное видео, призывающее к контролю за ношением оружия в США.
Рассказывать об искусстве
В музее Дали во Флориде дипфейковая версия сюрреалиста встречает посетителей, рассказывая о художнике и его искусстве. Исследователь Михаэла Михайлова отмечает, что это дает посетителям ощущение непосредственности, близости и персонализации. Deepfake Dali даже предлагает сделать с ним селфи.
Повышает концентрацию студентов
Дипфейки могут помогать лучше учиться. В Шанхае доцент Цзян Фэй заметил, что во время онлайн-пар внимание его студентов ослабло. Чтобы помочь им сосредоточиться, он использовал аниме-версию себя для цифрового обучения. Цзян Фэй подчеркивает: «Энтузиазм студентов на занятиях и улучшение качества домашних заданий говорят о том, что удалось добиться очевидного прогресса».