1. Для четкого определения правовой природы дипфейка необходимо прежде всего соотнести его с созвучным понятием «фейк» (fake), который переводится с английского как «подделка», «фальшивка». Данный англицизм настолько прочно вошел в современный русский язык, что сегодня обычно употребляется в англоязычном варианте без перевода. При этом в юридических публикациях нередко подчеркивается, что фейк напрямую связан с ложной или вводящей в заблуждение информацией, которая целенаправленно выдается за реальную1.
В то же время в юридической литературе встречаются чрезмерно пространные определения понятия «фейк». Например, он определяется как «любая ложная информация и, поддельные объекты, произведения, создаваемые с целью извлечения выгоды или побуждения к определенному виду деятельности»2. Причем его содержание раскрывается крайне широко: «любые непроверенные или заведомо ложные сведения о чем-то…, это создание фальшивых различных объектов, в том числе и произведений искусства, литературы, а также подделка брендовой одежды, техники… этим термином можно обозначать и поддельные монеты, купюры, документы и иные охраняемые законодательством от подделки объекты»3.
Подобное толкование представляется неверным, поскольку включает в себя явления, не относящиеся к теме фейков, и фактически подменяет уже устоявшиеся правовые категории – такие как «контрафакт» (в сфере права интеллектуальной собственности), «подделка» (в рамках уголовного права) и др. По сути, оно воспроизводит обыденное, бытовое понимание фейка, что приводит к размыванию его юридического смысла.
На мой взгляд, для целей права англоязычное слово «фейк» должно пониматься значительно уже – как недостоверная информация, распространяемая под видом достоверной. При этом понятием «недостоверная информация» охватываются различные ее виды: заведомо ложная (противоречащая реальным событиям и документам, не подтверждаемая доказательствами), искаженная (когда события, объекты, явления специально представляются в неверном свете для создания ошибочного впечатления; представляющая собой фабрикацию), полуправдивая (содержащую достоверные данные, но подаваемые с манипулированием количеством или качеством информации).
Фейковым (содержащим недостоверную информацию, но при этом правдиво выглядящим) может быть, в частности, текст, фотография, аудио- или видеозапись. Причем совсем необязательно, чтобы их изготовление осуществлялось с помощью технологий ИИ, – фейк может быть создан и без применения новейших цифровых средств. Так, он может быть произведен, например, путем монтажа видеокадров в видеозаписи, посредством вырывания фразы из контекста, размещения нового описания под старыми фотографиями, через фальсификацию аудиозаписи. То есть метод создания для фейков вторичен – определяющим для него является факт представления (распространения) недостоверной информации под видом достоверной.
Резюмируя, можно утверждать, что англоязычный термин «фейк» представляет собой, по сути, собирательное понятие, используемое для обозначения различных видов недостоверной информации, которая распространена под видом достоверной.
Вследствие этого только одобрения заслуживает то обстоятельство, что в российское законодательство упомянутый англицизм включен не был – вместо него обоснованно употребляется выражение «недостоверная информация». В частности, положения, регулирующие пресечение распространения «недостоверной общественно значимой новостной информации под видом достоверных сообщений» были введены Федеральным законом от 23 июня 2016 г. № 208-ФЗ «О внесении изменений и дополнений в ФЗ «Об информации, информационных технологиях и о защите информации» и Кодекс Российской Федерации об административных правонарушениях».
В то же время недостоверная информация может распространяется не только в форме новостей, нарушающих публичные (общественные) интересы, – она может затрагивать и частную сферу конкретных граждан, вторгаясь в нее в виде «порочащих сведений». В таких случаях подлежат применению нормы ст. 152 ГК РФ (об охране чести, достоинстве и деловой репутации), а при наличии соответствующего состава – и, в частности, положения уголовного законодательства (например, о клевете (ст. 128.1 УК РФ)).
Примечательно, что применительно к фейкам у большинства юристов не возникал вопрос о допустимости их отнесения к числу объектов интеллектуальных прав. Правовая оценка фейка строится на анализе того, имело ли место распространение ложных сведений, причинили ли они материальный ущерб, не нарушают ли охраняемые законом интересы граждан, не нанесли ли они последним моральный вред и проч.
Почему же такой вопрос возник применительно к дипфейкам?
2. В русскоязычных публикациях и выступлениях часто отмечается, что само слово «дипфейк» (deepfake) составлено из англоязычных «deep learning», которое принято переводить как «глубокое обучение», и «fake». Иногда даже при формулировании дефиниции на это обращается специальное внимание. Например, в одной из работ дипфейк был определен как «преднамеренно искаженные аудио, видео или иные файлы с использованием технологии глубокого обучения (определение производное от словосочетания «deep learning» – глубокое обучение, «fake» – подделка), которые изображают что-то вымышленное или ложное, что позволяет злоумышленникам использовать новый и сложный инструмент социальной инженерии»4.
Между тем появление самого термина «дипфейк» связано не с концептуальным сочетанием «глубокого обучения» и «подделки», а с конкретным жизненным случаем. В 2017 г. на платформе Reddit было опубликовано нескольких порнографических видеороликов, в которых лица реальных участников были заменены изображениями знаменитостей. Эти материалы были размещены анонимным пользователем с ником DeepFakes, и именно его никнейм впоследствии стал использоваться в качестве названия нового явления. Как отмечает В.О. Калятин, в действительности данный пользователь применял не собственно технологию дипфейка в современном его понимании, а метод face-swap (замены лиц)5.
В связи с этим важно отметить, что на заре своего появления создание дипфейков характеризовалось как довольно сложный и ресурсоемкий процесс: требовалось иметь доступ к значительным вычислительным мощностям и обладать специальными знаниями в области машинного обучения, позволяющими обучать нейросеть под конкретную задачу создания поддельного объекта. Это делало процесс доступным преимущественно профессионалам.
Сегодня ситуация существенно изменилась. Стремительное развитие генеративного ИИ привело к появлению множества генераторов – приложений и сервисов, способных за считанные секунды создавать разнообразные изображения, тексты и видеоролики, крайне схожие с результатами человеческого творчества. Используемый в таких приложениях и сервисах генеративный ИИ позволяет обычному пользователю, не обладающему навыками программирования, без труда получать так называемый «синтетический контент» – текст, изображения, музыку, видео и прочие объекты, которые нередко схожи с авторскими произведениями, создаваемыми человеком6 (далее для обозначения «синтетического контента» будет использоваться слово «ИИ-генерация»).
Появление приложений и сервисов, специально предназначенных для создания контента с «подменой личности», позволяет практически любому пользователю создавать дипфейковые ИИ-генерации. Для этого заинтересованному лицу обычно достаточно загрузить в такое приложение или сервис исходный видеофайл, а также файл изображения лица для замены, чтобы получить результат их синтеза уже через несколько секунд. Причем результат генерации почти не зависит от пользователя – сами технологии очень быстро эволюционируют, вследствие чего дипфейковые ИИ-генерации почти не отличимы от реальных изображений или аудиозаписей, а их выявление требует применения специальных программ распознавания.
Таким образом, изготовление дипфейков сегодня, по сути, стало доступно каждому – посредством использования современных цифровых инструментов можно создавать имитации изображения или звучания голоса конкретного человека с такой степенью реалистичности, что они воспринимаются как аутентичные. Это обстоятельство позволяет сделать акцент на отличительной черте дипфейка, выделяющей его из прочих разновидностей фейков: его создание предполагает применение цифровых технологий, обеспечивающих правдоподобную имитацию человека.
3. Широкое употребление слова «дипфейк» в различных по тематике публикациях заставляет в целях настоящей работы заострить внимание на обязательности четкого разграничения двух самостоятельных явлений, обозначаемых одним и тем же термином «дипфейк».
Анализ литературы показывает, что данным термином обозначают как саму технологию, которая на основе применения цифровых инструментов обеспечивает синтез аудио- и визуального контента, внешне не отличимых от реальных фотографий либо видео- и аудиозаписей, так и конечный продукт (применения технологии) в виде модифицированного изображения, аудио или видео, имитирующих образ реального человека. Очевидно, что эти два явления принципиально различны как в техническом, так и в правовом ключе.
Дипфейк как технология в публикациях обычно характеризуется как основанная на архитектуре генеративно-состязательных сетей (англ. Generative Adversarial Networks, GAN), включающих два взаимосвязанных компонента: генератор, который создает ИИ-генерации – синтетические видео-, аудио или изображения, и дискриминатор, который оценивает реалистичность созданной ИИ-генерации, ее сходство / различия с реальным контентом7. Их алгоритмы работают в тандеме, обеспечивая создание имитаций внешности, голоса и поведенческих особенностей реального человека с высокой степенью правдоподобия.
Однако, как уже указывалось, создание дипфейка возможно не только с использованием технологии дипфейка, но и на базе других цифровых инструментов и технологий. Среди них, например, упоминавшаяся технология замены лиц (face swaps), «кукловодства» (puppeteering), синхронизации движений губ (lip-syncing), клонирования голоса (voice cloning), «дорисовывания» изображения (inpainting) и другие методы8. В связи с этим использование словосочетания «технология дипфейка» неизбежно носит условный характер: в юридическом смысле принципиального значения не имеет, какой именно технологический подход был применен для создания внешне правдоподобного, но фактически недостоверного изображения, видеоролика или аудиозаписи.
В то же время надо признать, что сами по себе технологии, обеспечивающие создание дипфейков, юридически нейтральны. Они представляют собой лишь инструмент обработки данных и не образуют правонарушения по факту своего существования или использования вне вредоносного контента. Этот вывод находит подтверждение в литературе: «Сам по себе синтез изображений, видео или аудио при применении дипфейк-технологий может не иметь социально опасных целей и не затрагивать права других граждан, более того их польза очевидна в кино, искусстве, рекламе. Так, в киноиндустрии с помощью дипфейк-технологий можно искусственно омолодить или состарить актеров, придать дублерам большее сходство с актерами, синхронизировать движения губ при дубляже перевода или даже доснять фильм с изображением внезапно умершего или переставшего участвовать в съемках актера»9.
Таким образом, отсутствуют основания криминализировать саму технологию, позволяющую создавать дипфейки. Она может использоваться в общественно-полезной и полностью правомерной деятельности (не только в искусстве, но также, например, в обучении, медицинских разработках). Аналогичным образом фотографическая технология сама по себе не противоправна, тогда как изготовленные ее посредством фотоснимки в случаях их злонамеренного использования способны стать инструментом нарушения частной жизни граждан.
Дипфейк как конечный продукт (результат) применения технологий синтеза аудио- и визуального контента сегодня в большинстве случаев производится в форме дипфейковых ИИ-генераций. Их отличительной особенностью является то, что они обычно имитируют конкретное лицо, вследствие чего способны затрагивать его субъективные права и законные интересы. Причем правонарушение может возникнуть даже при отсутствии злого умысла со стороны создателя и распространителя дипфейковой ИИ-генерации.
Вследствие этого правовой анализ должен быть сосредоточен прежде всего на конечном продукте (результате) применения технологий – собственно дипфейке, поскольку именно он, а не технология может выступить инструментом правонарушения. Нарушение, совершенное с использованием дипфейка, требует не только оперативного пресечения, но и применения мер ответственности к правонарушителю. И здесь надо признать, что существующие правовые механизмы отчасти обеспечивают защиту нарушенных прав, но в ряде случаев их возможностей оказывается недостаточно. Это подтверждает обоснованность выводов о необходимости разработки специального правового регулирования, ориентированного на противодействие дипфейкам-правонарушениям.
4. Подводя промежуточные итоги, следует признать, что дипфейк, будучи одной из разновидностей фейка, представляет собой недостоверную информацию, распространяемую под видом достоверной. Но изложенное выше позволяет обозначить его особенности, выделяющие среди иных форм фейков.
Во-первых, ключевой характеристикой дипфейка выступает его направленность на имитацию индивидуальных признаков конкретного человека – внешности, голоса, индивидуальных черт, манеры поведения (причем необязательно в негативном ключе). Подобное воспроизведение личной идентичности даже в нейтральной или юмористической форме, неизбежно вторгается в сферу нематериальных благ человека. Это формирует самостоятельную правовую проблематику дипфейков, отличную от вопросов, традиционно связанных с обычными фейками.
Во-вторых, специфика дипфейка обусловлена обязательным применением современных цифровых технологий, включая технологии генеративного ИИ. Предлагаемые ими инструменты позволяют моделировать изображение внешности или звучание записи голоса таким образом, что конечный продукт становится максимально реалистичным и воспринимается как подлинный, достоверный. В отличие от обычных фейков, которые, как указывалось выше, нередко «изготавливаются вручную», создание дипфейка предполагает использование современного технологического инструментария, хотя и необязательно специализированных технологий дипфейка в узком смысле.
Обозначенные особенности дипфейков предопределяют несколько иную отраслевую принадлежность законодательства, подлежащего применению, по сравнению с фейками. Если ответственность за распространение фейков связана преимущественно с введением в заблуждение и причинением ущерба публичным интересам, то ответственность за дипфейк обусловлена главным образом незаконным использованием образа личности. Даже нейтральная, не дискредитирующая имитация внешности или голоса конкретного человека, созданная без его согласия и позволяющая его идентифицировать, представляет собой вмешательство в сферу его нематериальных благ и потому является противоправной.
В российском праве уже существуют правовые инструменты, позволяющие защититься от правонарушений, совершаемым посредством дипфейков, включая дипфейковые ИИ-генерации.
Так, в соответствии со ст. 152.1 ГК РФ использование изображения гражданина допускается только с его согласия, за исключением прямо установленных законом случаев. Поскольку дипфейк опирается на использование изображения, позволяющего идентифицировать конкретное лицо, его создание и (тем более) распространение требуют согласия изображаемого лица, даже если дипфейк не нацелен на дискредитацию этого лица и носит нейтральный или юмористический характер. Дипфейк, созданный и распространяемый без согласия гражданина, подлежит удалению по его требованию.
Те же подходы должны применяться и к записям голоса, которые прямо не поименованы в законодательстве в качестве охраняемого объекта, но, строго говоря, не особо нуждаются в специальных нормах10. Это связано с тем, что перечень нематериальных благ является открытым (ст. 150 ГК РФ), а положения ст. 152.1 ГК РФ могут распространяться и на записи голоса в порядке аналогии закона (ст. 6 ГК РФ).
Если дипфейк содержит порочащие сведения о человеке, изображает его в аморальных ситуациях, дискредитирует в профессиональной сфере, уничижает его честь, достоинство или репутацию или иным образом формирует ложное представление о нем, негативно влияющее на общественную оценку, применению подлежит уже другое законодательство. Это прежде всего нормы ст. 152 ГК РФ об охране чести, достоинства и деловой репутации. Кроме того, в зависимости от содержания дипфейка и способа его использования он может образовывать состав административных или уголовных правонарушений: клеветы (ст. 128.1 УК РФ), оскорбления (ст. 5.61 КоАП РФ), мошенничества (ст. 159 УК РФ), совершенного посредством имитации голоса или видеосвязи. Разрабатывается и специальное законодательство, направленное на противодействие «подмене личности» и предусматривающее уголовное наказание за такого рода преступления11. Это связано с тем, что в отдельных случаях правонарушения, совершаемые посредством распространения дипфейков, не всегда удается квалифицировать в рамках действующего уголовного законодательства12.
Таким образом, феномен дипфейков требует многоуровневой правовой оценки, охватывающей как защиту нематериальных благ личности, так и иные частные и публичные интересы.
5. Юристы нередко поднимают вопрос о применимости законодательства об интеллектуальной собственности к дипфейкам.
Иногда подобные рассуждения строятся на ошибочном предположении, что использование голоса, внешности, образа конкретного человека (в том числе актера) само по себе может рассматриваться как нарушение авторских прав13. Однако такое предположение не соотносится с предметом авторского права: индивидуальные признаки личности не могут расцениваться как «результаты творческой деятельности» и, следовательно, не могут выступать объектами авторско-правовой охраны.
В то же время гораздо чаще обсуждение ведется в ином ключе – о допустимости квалификации дипфейков в качестве объектов авторских прав14.
В русле таких обсуждений обычно упоминается известное дело № А40-200471/202315, в рамках которого компания–правообладатель видеоролика, предъявила к другой компании иск о незаконном использовании данного ролика в рекламных целях. Ответчик, оправдывая несогласованное использование спорного видеоролика, ссылался на тот факт, что данный объект был создан с применением технологии дипфейка: изображение снявшегося в ролике актера было заменено на образ Киану Ривза. По мнению ответчика, такое преобразование исключало возможность признания видеоролика объектом авторских прав.
По результатам рассмотрения дела суд первой инстанции признал, что спорный видеоролик выступает результатом творческой деятельности нескольких лиц – сценариста, оператора-постановщика, моушн-дизайнера, актера, тогда как технология дипфейка в свою очередь применялась в качестве дополнительного инструмента обработки (технического монтажа)16. Суд апелляционной инстанции согласился с таким выводом, отметив, что частичное преобразование видеозаписи с помощью алгоритмов «не исключает тот факт, что исходный видеоряд создан творческим трудом авторов»17. Кроме того, суд подчеркнул, что применение технологии дипфейка «само по себе не свидетельствует о том, что видеоролик доступен для свободного использования (без согласия правообладателя), или о том, что группа лиц, обеспечившая написание сценария видеоролика, видеосъемку, его аудиосопровождение, не внесли личный творческий вклад в создание видеоролика и не признаются его авторами»18. С учетом установленных обстоятельств суды всех инстанций последовательно признали исковые требования подлежащими удовлетворению, взыскав с ответчика 500 000 рублей, что было поддержано судом кассационной инстанции19.
Судебные акты по указанному делу позволяют сделать следующий вывод: авторское произведение, частично преобразованное посредством использования технологии дипфейка либо аналогичных цифровых инструментов, сохраняет статус охраняемого объекта авторских прав.
Раскрывая данный вывод, следует отметить, что подобное преобразование с использованием технологии дипфейка может повлечь возникновение нового – производного – произведения, но только при условии, что в результате применения технологического инструментария была изменена творческая концепция оригинала (по сравнению с первоначальным авторским замыслом), была модифицирована сюжетная линия либо было оказано иное воздействие на форму первоначального произведения, позволяющее квалифицировать произошедшее как переработку в смысле ст. 1260 ГК РФ. Если же технология дипфейка использовалась исключительно как технический инструмент, не влияющий на сущностные характеристики произведения, то оснований считать полученный результат производным произведением не возникает – это будет исходный объект, который претерпел некоторые изменения.
Важно, что в любом из указанных случаев требуется получение двух видов согласий.
Первое согласие. Для правомерного использования производного произведения его автор обязан получить согласие правообладателя первоначального произведения (п. 3 ст. 1260 ГК РФ). При отсутствии такого согласия автор производного произведения фактически лишается возможности осуществлять принадлежащие ему авторские права: обнародовать производное произведения, иным образом использовать его, отчуждать исключительное право на него и т.п.20
Если применение технологии дипфейка не приводит к созданию производного произведения, но влечет изменение или дополнение исходного произведения, то такое использование произведения также требует согласия его автора (п. 1 ст. 1266 ГК РФ). Более того, если в результате изменения произведение было извращено, искажено либо подверглось иному воздействию, порочащему честь, достоинство или деловую репутацию автора, последний вправе требовать их защиты (п. 2 ст. 1266 ГК РФ).
Второе согласие. В силу п. 1 ст. 152.1 ГК РФ замена внешности или голоса лица в авторском произведении, выполненная с применением технологии дипфейка или родственной ей технологии, должна быть согласована с лицом, изображенным в итоговом «продукте» (или с лицом, уполномоченным законом давать такое согласие). Подобное согласие презюмируется, когда лицо предоставляет возможность использовать собственный цифровой образ в дипфейках (сообщалось, первым в Голливуде это сделал Брюс Уиллис21, что, впрочем, позднее было опровергнуто22).
При отсутствии указанного согласия произведение должно быть квалифицировано как нарушающее требования закона23. В связи с этим примечательно, что в контексте авторского права такое произведение сохраняет статус охраняемого объекта. Однако в силу п. 2 ст. 152.1 ГК РФ при установлении судом подобного нарушения оно может быть уничтожено без какой-либо компенсации на основании соответствующего судебного решения. Тем самым защита неимущественных благ получает приоритет перед охраной авторского произведения.
Как было продемонстрировано, с помощью технологии дипфейка охраняемое произведение может быть качественно переработано, что позволит квалифицировать полученный результат как производное произведение. Однако вероятна и другая ситуация, когда обработка данных с использованием указанной или подобной ей технологии только отчасти изменяет охраняемое произведение, не порождая новый объект авторских прав. Следовательно, вопрос о признании или непризнании результата преобразований посредством технологии дипфейка производным произведением должен разрешаться по общим правилам ст. 1260 ГК РФ с учетом характера и глубины воздействия на форму первоначального произведения.
6. В отличие от рассмотренной выше ситуации, когда технология дипфейка применяется к созданному человеком произведению, и, следовательно, подпадает под регулирование авторского права, ИИ-генерации требуют принципиально иного подхода.
Как уже обосновывалось ранее24, генеративный ИИ, будучи совокупностью технологий и не обладая правосубъектностью, в юридическом смысле не может рассматриваться как автор результатов, которые он автоматически формирует на основе обучающих данных и внутренних алгоритмов. Вследствие этого все ИИ-генерации – создаваемые без участия человека изображения, тексты, музыкальные фрагменты, видеоролики, аудиозаписи и проч. – не являются произведениями в смысле авторского права. Такой вывод обусловлен тем, что ИИ-генерации не отвечают условиям охраноспособности авторских произведений: они создаются не-человеком, а автоматизированный технологический процесс генерации не может быть приравнен к творческой деятельности человека.
Вместе с тем в условиях внешнего сходства ИИ-генераций с результатами творческого труда человека, юристы нередко испытывают затруднения при их юридической квалификации, несмотря на то что первые явно не отвечают критериям, необходимым для установления правовой охраны в качестве объектов авторского права и соответственно выпадают из сферы регулирования законодательства об интеллектуальной собственности. Подобные затруднения во многом обусловлены непониманием, к какой сфере должны относится такого рода объекты, если они не встраиваются в традиционную парадигму интеллектуальных прав.
Для такого рода объектов мной было предложено использовать уже употребляемое в российском законодательстве понятие «информационный продукт»25, которое имеет собирательный характер и охватывает широкий спектр объектов, различающихся по природе и способу создания: результаты механической работы человека (например, компиляции, копирование и проч.); результаты технологического процесса, осуществляемого автоматизированной системой или ИИ без участия человека и направленного на создание нового контента (включая, текст, видео, аудио, код, и проч.); составляющие информационных потоков (в частности, новости, объявления, сообщения и др.); идентифицированные совокупности данных, сформированная для целей передачи, распространения и обработки (наборы данных) и т.д. Эти информационные продукты (которые по тем или иным причинам не получают правовую охрану в качестве объектов интеллектуальной собственности) объединяет ряд признаков: (1) они выступают результатом интеллектуальной деятельности человека и (или) обработки информации; (2) носят нематериальный характер; (3) содержат информацию (информационную составляющую), пригодную для использования и (или) обладающую ценностью / полезностью для третьих лиц; (4) зафиксированы на любой из разновидностей носителей.
С учетом сказанного надо признать, что сгенерированные ИИ дипфейки, будучи по своей сути результатом обработки информации, произведениями не являются и не подпадают под правовую охрану авторского права. Иными словами, всякая ИИ-генерация – как изначально созданная дипфейковой, так и впоследствии подвергшаяся обработке с применением технологии дипфейка или подобной технологии – не является объектом авторских прав. Правовой статус таких ИИ-генераций может быть корректно описан через категорию «информационного продукта», объединяющую результаты обработки данных и контент, не обладающий признаками охраняемого произведения. Поэтому дипфейковые ИИ-генерации требуют регулирования не через институты интеллектуальных прав, а через механизмы защиты личности, информации, публичных интересов.
1 См., например: Как распознать фейковые новости // URL: https://www.kaspersky.ru/resource-center/preemptive-safety/how-to-identify-fake-news?
2 Головкин Р.Б., Ходырев А.В. «Фейк» как один из факторов риска в праве // Юридическая техника. 2019. № 13. С. 143.
3 Там же. С. 142–143.
4 Игнатенков Г.К. Технология дипфейк как угроза информационной безопасности // Наука. Исследования. Практика: сб. ст. по материалам Международной научной конференции, СПб., 25 июня 2022 г. СПб.: Гуманитарный национальный исследовательский институт «Нацразвитие», 2022. С. 74. См. также, например: Добробаба М.Б. Дипфейки как угроза правам человека // Lex Russica. 2022. Т. 75. № 11. С. 113.
5 Калятин В.О. Дипфейк как правовая проблема: новые угрозы или новые возможности? // Закон. 2022. № 7. С. 87.
6 Рожкова М.А. ИИ-генерации, плагиат и «самоплагиат» в контексте авторского права [Электронный ресурс] // Закон.ру. 2025. 4 декабря. (URL: https://zakon.ru/blog/2025/12/4/ii-generacii_plagiat_i_samoplagiat_v_kontekste_avtorskogo_prava); Рожкова М.А. Фейк и дипфейк – соотношение понятий [Электронный ресурс] // Закон.ру. 2025. 9 декабря. (URL: https://zakon.ru/blog/2025/12/9/fejk_i_dipfejk__sootnoshenie_ponyatij).
7 Асеева Н., Гузий В. Дипфейк – технология для творчества, лишающая уверенности в подлинности [Электронный ресурс] // Российская газета. 01.12.2021 (URL: https://neurotoday.ru/journal/tehnologiya-dipfeyk).
8 См., например: Игнатьев А.Г., Курбатова Т.А. Аналитический обзор «Дипфейки в цифровом пространстве: основные международные подходы к исследованию и регулированию». М., 2023. С. 16–17.
9 Добробаба М.Б. Дипфейки как угроза правам человека // Lex Russica. 2022. Т. 75. № 11. С. 113.
10 Надо признать, что законопроект, внесенный в Госдуму в 2024 г. и предполагающий дополнить ГК РФ новой ст. 152.3 для установления охраны голоса как объекта личных неимущественных прав гражданина по аналогии с изображением гражданина (речь о законопроекте № 718834-8 «О внесении изменений в часть первую Гражданского кодекса Российской Федерации (об охране голоса)» (URL: https://sozd.duma.gov.ru/bill/718834-8), было сложно поддержать в изначально представленной редакции. Это связано с тем, что в законопроекте четко не разграничиваются понятия «голос» и «запись голоса», тогда как различать физиологические особенности человека (голос, внешность, черты лица) и результаты их технической фиксации (запись голоса, изображение гражданина) необходимо во избежание противоречий в правовом регулировании.
11 Речь о законопроекте № 718538-8 «О внесении изменений в Уголовный кодекс Российской Федерации (в части установления уголовной ответственности за совершение преступлений с использованием технологий подмены личности)» (URL: https://sozd.duma.gov.ru/bill/718538-8).
12 См., например: Капитонова Е. А. Шантаж «нюдсами» и смежные деяния: проблемы уголовно-правовой квалификации // Уголовное право. 2021. № 6. С. 19–27.
13 См., например: Добробаба М.Б. Дипфейки как угроза правам человека // Lex Russica. 2022. Т. 75. № 11. С. 115.
14 См., например: Кастерин Н. Нарушение авторских прав созданием дипфейков [Электронный ресурс] // Закон.ру. 2023. 5 мая. (URL: https://zakon.ru/blog/2023/5/5/narushenie_avtorskih_prav_sozdaniem_dipfejkov); Постарнак А.М. Анализ зарубежного правового регулирования дипфейков: проблема защиты интеллектуальной собственности // Теория и практика общественного развития. 2023. № 6. С. 269–273; Рахматулина Р. Ш. Технология deepfake в праве интеллектуальной собственности // Юрист. 2022. № 2. С. 52–55.
15 URL: https://kad.arbitr.ru/Card/4d7f0305-69af-44fe-8841-a59e84aa7deb.
16 Решение Арбитражного суда города Москвы от 30 ноября 2023 г. по делу А40-200471/23-27-1448 (URL: https://kad.arbitr.ru/Document/Pdf/4d7f0305-69af-44fe-8841-a59e84aa7deb/8dedc372-21f6-4751-ab3c-8a320fe435ce/A40-200471-2023_20231130_Reshenija_i_postanovlenija.pdf).
17 Постановление Девятого арбитражного апелляционного суда от 8 апреля 2024 г. № 09АП-642/2024 по делу А40-200471/23 (URL: https://kad.arbitr.ru/Document/Pdf/4d7f0305-69af-44fe-8841-a59e84aa7deb/ca413425-2897-4e84-9763-19828971dcb6/A40-200471-2023_20240408_Postanovlenie_apelljacionnoj_instancii.pdf).
18 Там же.
19 Постановление Суда по интеллектуальным правам от 19 августа 2024 г. по делу А40-200471/23 (URL: https://kad.arbitr.ru/Document/Pdf/4d7f0305-69af-44fe-8841-a59e84aa7deb/07f50431-2227-4197-9137-084c5b61ed74/A40-200471-2023_20240819_Reshenija_i_postanovlenija.pdf).
20 См. об этом: Иванов Н. Защита прав на переработку при отсутствии согласия обладателя прав на оригинальное произведение [Электронный ресурс] // Закон.ру. 2021. 30 апреля. (URL: https://zakon.ru/blog/2021/4/30/zaschita_prav_na_pererabotku_pri_otsutstvii_soglasiya_obladatelya_prav_na_originalnoe_proizvedenie).
21 Allen N. Deepfake tech allows Bruce Willis to return to the screen without ever being on set // The Daily Telegraph. 28 September 2022. (URL: https://www.telegraph.co.uk/world-news/2022/09/28/deepfake-tech-allows-bruce-willis-return-screen-without-ever/).
22 Громова Я. Брюс Уиллис опроверг продажу «цифрового близнеца» дипфейк-компании. Представитель актера заявил, что его слова были неверно истолкованы [Электронный ресурс] // РБК. 12 января 2024. (URL: https://www.rbc.ru/life/news/63397e189a79477e25792efe).
23 Поскольку произведение является не самим действием, а продуктом (результативного) действия, возможность признания его недействительным исключена (см. о недозволенности и результативных действиях: Рожкова М.А. Теории юридических фактов гражданского и процессуального права: понятия, классификации, основы взаимодействия (диссертация на соискание ученой степени доктора юридических наук; М., 2010. С. 96–111, 130–133. (URL: https://rozhkova.com/pdf/DOC_DISSER.pdf)).
24 Рожкова М.А. Объекты, сгенерированные ИИ, и объекты, создаваемые человеком с использованием ИИ, – суть различий [Электронный ресурс] // Закон.ру. 2025. 12 февраля. (URL: https://zakon.ru/blog/2025/02/12/obekty_sgenerirovannye_ii_i_obekty_sozdavaemye_chelovekom_s_ispolzovaniem_ii__sut_razlichij); Рожкова М.А. ИИ-генерации, плагиат и «самоплагиат» в контексте авторского права [Электронный ресурс] // Закон.ру. 2025. 4 декабря. (URL: https://zakon.ru/blog/2025/12/4/ii-generacii_plagiat_i_samoplagiat_v_kontekste_avtorskogo_prava).
25 Рожкова М.А. Понятие «информационный продукт» в контексте информационного права, права интеллектуальной собственности, а также договорного права [Электронный ресурс] // Журнал Суда по интеллектуальным правам. 2025. № 3 (49) (сентябрь). С. 161–174 (URL: https://ipcmagazine.ru/articles/1862016/).
1. Асеева Н., Гузий В. Дипфейк – технология для творчества, лишающая уверенности в подлинности [Электронный ресурс] // Российская газета. 01.12.2021 (URL: https://rg.ru/2021/12/01/kot/dipfejk.html)
2. Головкин Р.Б., Ходырев А.В. «Фейк» как один из факторов риска в праве // Юридическая техника. 2019. № 13. С. 142-144.
3. Громова Я. Брюс Уиллис опроверг продажу «цифрового близнеца» дипфейк-компании. Представитель актера заявил, что его слова были неверно истолкованы [Электронный ресурс] // РБК. 12 января 2024. (URL: https://www.rbc.ru/life/news/63397e189a79477e25792efe).
4. Добробаба М.Б. Дипфейки как угроза правам человека // Lex Russica. 2022. Т. 75. № 11. С. 112-119.
5. Иванов Н. Защита прав на переработку при отсутствии согласия обладателя прав на оригинальное произведение [Электронный ресурс] // Закон.ру. 2021. 30 апреля. (URL: https://zakon.ru/blog/2021/4/30/zaschita_prav_na_pererabotku_pri_otsutstvii_soglasiya_obladatelya_prav_na_originalnoe_proizvedenie)
6. Игнатенков Г.К. Технология дипфейк как угроза информационной безопасности // Наука. Исследования. Практика: сб. ст. по материалам Международной научной конференции, СПб., 25 июня 2022 г. СПб.: Гуманитарный национальный исследовательский институт «Нацразвитие», 2022. С. 74-77.
7. Игнатьев А.Г., Курбатова Т.А. Аналитический обзор «Дипфейки в цифровом пространстве: основные международные подходы к исследованию и регулированию». М., 2023.
8. Как распознать фейковые новости // URL: https://www.kaspersky.ru/resource-center/preemptive-safety/how-to-identify-fake-news?
9. Калятин В.О. Дипфейк как правовая проблема: новые угрозы или новые возможности? // Закон. 2022. № 7. С. 87-103.
10. Капитонова Е. А. Шантаж «нюдсами» и смежные деяния: проблемы уголовно-правовой квалификации // Уголовное право. 2021. № 6. С. 19–27
11. Кастерин Н. Нарушение авторских прав созданием дипфейков [Электронный ресурс] // Закон.ру. 2023. 5 мая. (URL: https://zakon.ru/blog/2023/5/5/narushenie_avtorskih_prav_sozdaniem_dipfejkov)
12. Постарнак А.М. Анализ зарубежного правового регулирования дипфейков: проблема защиты интеллектуальной собственности // Теория и практика общественного развития. 2023. № 6. С. 269–273
13. Рахматулина Р. Ш. Технология deepfake в праве интеллектуальной собственности // Юрист. 2022. № 2. С. 52–55
14. Рожкова М.А. ИИ-генерации, плагиат и «самоплагиат» в контексте авторского права [Электронный ресурс] // Закон.ру. 2025. 4 декабря. (URL: https://zakon.ru/blog/2025/12/4/ii-generacii_plagiat_i_samoplagiat_v_kontekste_avtorskogo_prava)
15. Рожкова М.А. Объекты, сгенерированные ИИ, и объекты, создаваемые человеком с использованием ИИ, – суть различий [Электронный ресурс] // Закон.ру. 2025. 12 февраля. (URL: https://zakon.ru/blog/2025/02/12/obekty_sgenerirovannye_ii_i_obekty_sozdavaemye_chelovekom_s_ispolzovaniem_ii__sut_razlichij)
16. Рожкова М.А. Понятие «информационный продукт» в контексте информационного права, права интеллектуальной собственности, а также договорного права [Электронный ресурс] // Журнал Суда по интеллектуальным правам. 2025. № 3 (49) (сентябрь). С. 161–174 (URL: https://ipcmagazine.ru/articles/1862016/)
17. Рожкова М.А. Фейк и дипфейк – соотношение понятий [Электронный ресурс] // Закон.ру. 2025. 9 декабря. (URL: https://zakon.ru/blog/2025/12/9/fejk_i_dipfejk__sootnoshenie_ponyatij).
18. Allen N. Deepfake tech allows Bruce Willis to return to the screen without ever being on set // The Daily Telegraph. 28 September 2022. (URL: https://www.telegraph.co.uk/world-news/2022/09/28/deepfake-tech-allows-bruce-willis-return-screen-without-ever/)