Массовый дипфейк: тренд на синтетический контент
Технологии дипфейков развиваются быстрее, чем технологии их обнаружения и законодательная база для регулирования их создания. ИИ скоро достигнет точки, когда будет практически невозможно отличить аудио и видео людей, говорящих то, что они никогда не говорили.
Дипфейк (из двух английских слов «deep learning — глубокое обучение» и «fake — подделка») — это синтетический контент, в котором человек в существующем фото, аудио или видео заменяется на другого. Дипфейки могут использовать любой формат — ваше фото, видео или ваш голос. Дипфейки наиболее часто используют в рекламе, порнофильмах, порномести, фейковых новостях и для финансового мошенничества.
Технология дипфейков — это не абсолютное зло, она может революционно изменить, например, киноиндустрию. С помощью нее можно искусственно омолодить или состарить актеров, придать дублерам большее сходство с актерами, синхронизировать движения губ при дубляже перевода или даже доснять фильм с изображением внезапно умершего или переставшего участвовать в съемках актера. Как правило, применение таких технологий юридически невозможно без согласия актеров, чьи изображения будут использованы в конечном материале, либо их наследников, если человек уже умер.
«В мире уже много проектов коммерческого использования дипфейков (Synthesia, WPP, Rosebud, Rephrase.ai, Canny AI). Технология дипфейков открывает возможность создавать полностью синтетические личности — изображения и голоса людей, которых никогда не существовало. Использование таких изображений практически полностью снимает зависимость бизнеса от моделей и актеров, в том числе от необходимости «очистки» авторских и смежных прав и подписания различных релизов», — считает Вадим Перевалов, старший юрист международной юридической фирмы Baker McKenzie.
Аудиофейки: есть ли авторское право на голос?
Голосовые дипфейки представляют собой самую большую проблему, потому что на голос человека не распространяется право собственности ни в одной стране мира — если только имя человека не зарегистрировано как коммерческий бренд.
Однако в 2020 году был создан прецедент. YouTube-канал Vocal Synthesis делает юмористические дипфейки с использованием голосов политиков и знаменитостей. Команда канала в юмористической манере разместила несколько сгенерированных записей начитки текстов американской рэп-звезды Jay-Z без коммерческой выгоды, четко обозначив все видео как синтез речи.
Тем не менее, концертная компания RocNation, которая принадлежит Jay-Z, подала иск о нарушении авторских прав. Организация выдвинула требование удалить видео, где, по их мнению, незаконно использован ИИ для имитации голоса музыканта.
Только два из четырех видео Jay-Z были удалены — было признано, что полученный в результате звуковой продукт является производной работой, не имеющей ничего общего ни с одной из песен рэпера. В США не каждый случай коммерческого использования чужого голоса является нарушением закона.
«Перспективное направление дипфейков — использование изображений или голосов знаменитостей для производства контента без их участия. Например, в России использование чужой речи для создания «похожего» голоса в явном виде не запрещено законодательством. Имитация голоса, например, телефонными пранкерами, тоже не является нарушением и, скорее, зависит от содержания шутки, которая может попасть под уголовную ответственность. А использование технологий дипфейка в рекламе не должно вводить потребителей в заблуждение — например, о том, что известная личность якобы рекомендует какой-либо товар. Помимо этого, остается дискуссионным вопрос, не нарушит ли создание такого «голосового слепка» авторские и смежные права на фонограммы и актерское исполнение», — поделился мнением Вадим Перевалов.
В марте 2019 года в Великобритании произошел инцидент с аудиофейком — ПО на основе искусственного интеллекта было использовано, чтобы сымитировать голос исполнительного директора британской энергетической компании и дать сотруднику этого предприятия поручение о переводе третьим лицам €220 тыс. Работник подумал, что разговаривает по телефону со своим боссом, и отправил деньги мошенникам. Следователи так и не установили подозреваемых.
Защита авторского права исходников дипфейков
Основная проблема в отношении дипфейков — еще ни в одной стране мира не создано законодательной практики, которая могла бы повлиять как на создателей дипфейков, так и на процедуру по их удалению. Закон об авторском праве может действовать как эффективное средство регулирования дипфейков, но для этого его надо доработать. Вопрос защиты прав умерших (например, киноактеров) в отношении использования их голоса и образа остается также открытым.
- Российское законодательство
Вероятно, в российском законодательстве дипфейки стоит рассматривать через призму производного произведения, при котором использование исходного произведения без согласия его правообладателя будет незаконно.
«Исключительное право на результат интеллектуальной деятельности возникает изначально у автора (соавторов), а потом может быть передано автором другому лицу по договору (ст. 1228 ГК РФ). Российское законодательство также предусматривает, что для возникновения, осуществления и защиты авторских прав не требуется регистрации или соблюдения каких-либо формальностей. Это главный подход для современной международной системы охраны авторских прав, предусматривающей также возможность подтверждения авторства с помощью презумпции авторства (статья 15 Бернской конвенции об охране литературных и художественных произведений), » — утверждает Дмитрий Игнатенко, руководитель юридической службы компании Rubytech.
Если рассматривать право авторства на дипфейк как результат интеллектуальной деятельности, созданной программой, то по российскому законодательству автором может быть только гражданин, творческим трудом которого создан этот результат (ст. 1228 ГК РФ). А правообладателем может быть лишь человек или юридическое лицо, обладающие исключительным правом на результат интеллектуальной деятельности или на средство индивидуализации (ст. 1229 ГК РФ). Так что за любой машиной должно стоять физическое или юридическое лицо, в противном случае не будет создан объект авторского права.
- Политика соцсетей
Технологии совершенствования дипфейков развиваются быстрее, чем законы в этой области. Американские Twitter, Facebook и китайский TikTok попытались самостоятельно отрегулировать распространение дипфейков разными способами
Twitter ввел правила по дипфейкам и манипулированию СМИ, которые в основном предусматривают пометку твитов и предупреждение пользователей об измененных новостях, а не их удаление. По заявлению компании, твиты, содержащие фальсифицированные или недостоверные материалы, будут удаляться только в том случае, если они могут причинить вред. В определение вреда также включены любые угрозы конфиденциальности или праву человека или группы лиц свободно выражать свое мнение. Это означает, что политика распространяется на преследование, навязчивое внимание, подавление или запугивание избирателей, а также на контент, содержащий фразы, предназначенные для того, чтобы заставить кого-то замолчать.
Facebook в начале 2020 года анонсировал политику для удаления дипфейков. Сообщения будут удалены, если они соответствуют таким критериям:
- контент был отредактирован или синтезирован (помимо улучшения четкости или качества) таким образом, который не очевиден для обычного человека и, вероятно, может ввести кого-то в заблуждение, заставив думать, что субъект видео сказал слова, которых он на самом деле не говорил;
- это продукт искусственного интеллекта или машинного обучения, который объединяет, заменяет или накладывает контент на видео, делая его похожим на аутентичный.
TikTok. Новая политика TikTok запрещает любой синтетический или манипулирующий контент, который вводит пользователей в заблуждение, искажая правду о событиях, и который влечет причинение вреда. Политика не столько запрещает конкретную технологию, основанную на ИИ, сколько призвана в большей степени предупредить использование любого вида обманного видео для очернения политических оппонентов в интернете.
Основной проблемой для соцсетей являлось отсутствие технологии обнаружения дипфейков. В 2019 году Facebook вместе с Microsoft и другими партнерами запустили конкурс для решения проблемы обнаружения The Deepfake Detection Challenge. Самой успешной стала модель белорусского разработчика Селима Сефербекова. Она достигла точности 65,18% на тестовых дата-сетах. На третьем месте — модель российской компании NTechLab.
Технологические лидеры — «Яндекс», TikTok, Microsoft, IBM, Kaspersky Lab, Reface, FaceApp, Ntechlab, и др. отказались комментировать РБК тренды дипфейков и авторского права.
Подписывайтесь также на Telegram-канал РБК Тренды и будьте в курсе актуальных тенденций и прогнозов о будущем технологий, эко-номики, образования и инноваций.