Правовые аспекты искусственного интеллекта и смежных технологий

17 Ноября 2022
А.И. Медведев,
аспирант юридического факультета СПбГУ,
лауреат конкурса IP&IT LAW - 2022
(2-е место, специальная номинация в сфере искусственного интеллекта)
 
 

 

Для цитирования:

Медведев А.И. Правовые аспекты искусственного интеллекта и смежных технологий // Журнал Суда по интеллектуальным правам. Декабрь 2022. Вып. 4 (38). С. 48–63.
DOI: 10.58741/23134852_2022_4_48.

Medvedev A.I. Legal aspects of artificial intelligence and related technologies // // Zhurnal Suda po intellektual'nym pravam. December 2022. 4 (38). Pp. 48–63. (In Russ.).
DOI: 10.58741/23134852_2022_4_48.

 

Введение

Технологии искусственного интеллекта (ИИ) постепенно охватывают современный мир. Технологии машинного обучения, основанные на обработке беспрецедентных массивов данных, выводят методы анализа информации на совершенно новый уровень, а робототехника выполняет действиями машин те задачи, которые раньше были прерогативой исключительно человека, потенциально делая жизнь людей более комфортными и создавая новые блага.

Закономерно, что технологические инновации, оказывающие такое глобальное воздействие на жизнь современного человека, несут в себе немалые риски. Осознание того, что технологии ИИ являются чрезвычайно сильными инструментами, способными принести обществу как большую пользу, так и серьезный вред, неизбежно приводит к мысли о необходимости установления системы нормативных правил, принципов и ограничений, связанных с разработкой и применением систем с ИИ.

Основная цель настоящего исследования – систематизировать международный опыт в области правового регулирования создания и использования искусственного интеллекта и смежных технологий, а также выделить и осветить основные тенденции и ключевые проблемы в этой сфере. Возможно, что результаты данного анализа поспособствуют формированию необходимой основы для выработки конкретных методологических и нормативных рекомендаций как на национальном, так и на международном уровнях.

Часть 1. Теоретические проблемы правового регулирования разработки и применения искусственного интеллекта и смежных технологий

§ 1. Искусственный интеллект как источник рисков

Феномен стремительного развития и распространения технологий искусственного интеллекта далеко не всегда получает положительную оценку. С одной стороны, оптимистичный вариант развития ИИ предполагает органичное встраивание робототехнических устройств и сервисов искусственного интеллекта в жизнь общества. С другой стороны, риски, исходящие от массового применения ИИ, порой рассматриваются как вызовы такого масштаба, который способен создать угрозу для самого́ существования человечества [33].

Безусловно, разработчики систем искусственного интеллекта принимают ряд мер по минимизации рисков использования соответствующих технологий. Однако более глобальные риски социального, экономического и гуманитарного характера, как правило, намного труднее поддаются оценке [12]. Тем не менее представляется возможным выделить основные проблемные зоны индустрии искусственного интеллекта, имеющие непосредственную связь с правом. Рассмотрим наиболее значимые, на наш взгляд, аспекты теоретических проблем правового регулирования разработки и применения ИИ и смежных технологий, которые обрели актуальность уже на сегодняшний день.

§ 2. Этико-правовые проблемы применения ИИ

Развитие дискуссии о правовых аспектах искусственного интеллекта и смежных технологий в значительной степени обусловлено ростом внимания к этическим проблемам машинного обучения и робототехники. Само слово «робот» впервые появилось в научно-фантастической пьесе К. Чапека «R.U.R.» 1920 г., одной из центральных тем которой была этика использования мыслящих конструкторов в качестве рабочей силы. Впоследствии главным литературным символом этических аспектов эксплуатации роботов и искусственного интеллекта стали знаменитые «Три закона робототехники» А. Азимова, впервые сформулированные автором в рассказе «Хоровод» 1942 г.

На сегодняшний день обсуждение этических проблем, связанных с использованием интеллектуальных машин, вышло далеко за пределы научной фантастики и дало необходимую почву для формирования нового исследовательского направления, которое получило название «робоэтика» и стало частью более крупного направления – этики искусственного интеллекта [4]. В 2004 г. в Италии состоялся Первый Международный симпозиум по робоэтике [42], после которого в том же году состоялось принятие в Японии Всемирной декларации о роботах [56]. П. Асаро выделяет три составляющие понятия «робоэтика»: встроенные в роботов этические системы; этика людей, которые разрабатывают и используют роботов; и этика обращения людей с роботами [24]. Рассмотрим по отдельности каждую из них и определим их взаимосвязь с правом.

Первая составляющая предполагает, что искусственный интеллект, который в процессе своей деятельности может сталкиваться с ситуациями, требующими принятия этически значимого решения, должен обладать неким встроенным алгоритмом, позволяющим им осуществлять грамотный и последовательный выбор таких решений. Представляется крайне маловероятным, что в ближайшем обозримом будущем искусственный интеллект будет способен самостоятельно формировать этическую систему либо обеспечивать такой уровень пользовательского взаимодействия, который позволит ему быстро и эффективно обучаться этике у своего владельца. Намного реалистичнее выглядит вариант, когда все ключевые установки, в том числе и касающиеся разрешения этических задач, закладываются в ИИ на этапе создания. Пользователь же может вносить в эти установки некоторые точечные коррективы, которые не препятствуют нормальной (и законной) эксплуатации искусственного интеллекта.

Подобный путь обостряет актуальность второго аспекта робоэтики: этики пользователей и разработчиков ИИ. Предположим, что производителям робототехники и разработчикам технологий ИИ доверено самостоятельно определять нравственные правила и ценностные посылки, на которых будет строиться система этической регуляции деятельности искусственного интеллекта. Такая ситуация способна потенциально привести к серьезному социальному конфликту в том случае, если этические и ценностные установки, закладываемые производителями в роботов, будут хотя бы в некоторых аспектах существенно отличаться от установок, которых придерживается значительное большинство членов общества. Для того чтобы избежать подобного развития событий некоторые страны уже предпринимают шаги для нормативного урегулирования этических аспектов разработки и использования технологий искусственного интеллекта. В частности, экспертные группы в странах Европы подготовили ряд ключевых документов, призванных заложить основу этико-правовых аспектов индустрии искусственного интеллекта, основные из которых будут освещены в настоящем исследовании.

Не менее значимой является и проблема обращения людей с роботами. В настоящий момент робототехнические устройства являются всего лишь вещами, которые могут эксплуатироваться их пользователями любым не противоречащим закону образом. Даже если предположить, что искусственный интеллект на определенной стадии своего развития обретет сознание и сформирует собственные интересы, его конструктивные особенности и устройство мышления будут настолько отличаться от человеческих, что и различия в мировоззрении и этике между роботом и человеком будут столь же фундаментальны [32]. В таких условиях попытки предугадать ценностные ориентиры гипотетических разумных машин обречены на неудачу.

Более реальной предпосылкой введения особых правовых механизмов защиты роботов представляется феномен очеловечивания роботов. Это явление выражается в том, что люди, постепенно привыкая к роботам, начинают наделять их в своем сознании субъектностью и, в конечном итоге, сопереживать им, как если бы те были разумными и чувствующими существами, а в отдельных случаях даже сопоставлять себя с ними. Как результат, распространение практики умышленного причинения вреда роботам и проявления жестокости по отношению к ним способно не только причинить моральные страдания отдельным людям, но и стать примером безнаказанного девиантного поведения. Все это может не только негативно повлиять на уровень правосознания и социальной адаптации граждан, но и создать почву для роста числа правонарушений.

§ 3. Ответственность за действия искусственного интеллекта

Несмотря на то что представления об этике использования искусственного интеллекта претерпели существенную эволюцию, основная задача осталась неизменной со времен А. Азимова: недопущение причинения вреда как людям, так и их имуществу, включая самих роботов. Такие традиционные сферы использования искусственного интеллекта, как проведение сложных математических расчетов и анализ больших массивов данных, обычно не предполагают принятия интеллектуальной программой каких-либо социально значимых решений.

Совсем иная ситуация возникает, например, при проведении операции роботом-хирургом. Популярность операций, проводимых с использованием медицинских роботов, растет с каждым годом: к примеру, в Москве за последние четыре года было проведено свыше 4,5 тысяч медицинских операций, в которых были задействованы робототехнические хирургические комплексы [23], а в Германии летом 2022 г. были проведены первые полностью роботизированные операции [41]. При этом мировой практике уже известны случаи некорректного функционирования хирургических роботизированных устройств: так, в 2020 г. Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) объявило об отзыве медицинской робототехнической системы da Vinci SP в связи с браком программного обеспечения [36].

Возможно, в ближайшем будущем, как и в настоящее время, большинство систем искусственного интеллекта будет использоваться в сферах, не имеющих столь высокого риска причинения вреда жизни человека. К таким устройствам относятся, например, домашние роботы, выполняющие разнообразные бытовые задачи. Совершенно иной окрас проблема приобретает, например, в отношении эксплуатации транспортных средств с искусственной интеллектуальной системой автоматического пилотирования.

Проблема распределения ответственности за действия ИИ между ее потенциальными субъектами – в частности, разработчиком, собственником и непосредственным пользователем, является одной из самых острых правовых проблем искусственного интеллекта и смежных технологий. Задача по ее урегулированию, помимо всего прочего, требует четкого соблюдения баланса интересов граждан, субъектов предпринимательской деятельности и государства.

В общем случае повышение безопасности систем искусственного интеллекта может быть достигнуто путем увеличения их открытости, объяснимости и доступности для разных форм контроля. Однако такая расстановка приоритетов потребует соответствующей платы. Прежде всего, такая политика скажется на эффективности, гибкости и скорости внедрения технологий ИИ. Кроме того, раскрытие технических особенностей систем искусственного интеллекта создает угрозу нарушения интеллектуальных прав их разработчиков и коммерческой тайны компаний - правообладателей соответствующих технологий. Наконец, высокие требования, предъявляемые к разработчикам и производителям искусственных интеллектуальных систем, могут оказаться неподъемными для небольших компаний, что может существенно замедлить темп роста инноваций [25]. Наиболее перспективным подходом к разрешению этой проблемы представляется увеличение открытости лишь тех технологий искусственного интеллекта, от использования которых потенциально могут пострадать не только их владелец, но и другие люди.

§ 4. Правосубъектность искусственного интеллекта

Идея наделения робота отдельными правами и обязанностями, а в исключительных случаях – и всем комплексом гражданских прав, будучи довольно смелой инновацией для такой консервативной области науки и практики, как юриспруденция, не только нашла ряд сторонников в России и за рубежом, но также вызвала последовательную критику [13].

В научной литературе предлагаются разнообразные модели правового статуса ИИ вплоть до практически полного уравнения в правах человека и «сильного искусственного интеллекта» будущего. Наиболее устойчивой и поступательно развиваемой в научных трудах является теория фиктивной правосубъектности искусственного интеллекта, предполагающая придание правовому положению ИИ отдельных черт, присущих статусу юридических лиц [3]. Тем не менее вне зависимости от избранного подхода наделение ИИ статусом субъекта права по-прежнему вызывает неоднозначную реакцию. В частности, отмечается, что правосубъектность искусственного интеллекта создаст возможность для перекладывания на него юридической ответственности, причем сама ИИ-система ввиду отсутствия собственной мотивации и правовых интересов не будет этому сопротивляться. Можно только предположить правовые и социальные последствия такой практики, а также масштабы злоупотреблений со стороны всех заинтересованных сторон, будь то государственные чиновники, представители ИИ-индустрии, разработчики, собственники или пользователи искусственного интеллекта [31].

Кроме того, отмечается, что в настоящий момент большинство аргументов в пользу искусственного интеллекта отличаются либо чрезмерной простотой, выражающейся в размытости и неопределенности; либо чрезмерной сложностью, создающейся избыточной опорой на многочисленные необоснованные допущения относительно будущего технологий ИИ, которое нам по большей части совершенно неизвестно. Единственным надежным способом правового регулирования искусственного интеллекта остается консервативный подход, при котором вопросы о правовом положении искусственного интеллекта и ответственности за совершаемые им действия разрешаются при помощи традиционных институтов права [27].

§ 5. Интеллектуально-правовые аспекты ИИ

Говоря о правовых аспектах искусственного интеллекта и смежных технологий, нельзя не упомянуть об интеллектуально-правовых проблемах, возникающих в такой высокотехнологичной и инновационной сфере. Дискуссия по поводу интеллектуальных прав, возникающих при разработке и эксплуатации ИИ, имеет два основных направления: интеллектуальные права на технологии искусственного интеллекта и интеллектуальные права на произведения, «созданные» самим искусственным интеллектом.

Технологии искусственного интеллекта давно являются объектом публичного обсуждения в профессиональной среде, а также в сфере интеллектуальных прав. Всемирная организация интеллектуальной собственности (ВОИС) за последние годы организовала несколько масштабных дискуссионных сессий, посвященных вопросам интеллектуальной собственности и искусственного интеллекта [14], а Организация экономического сотрудничества и развития (ОЭСР) открыла площадку для обсуждения политики в отношении технологий ИИ [52].

Тем не менее вопрос об интеллектуально-правовом режиме ИИ далек от разрешения. В настоящий момент в отсутствие специальных норм судьба интеллектуально-правового статуса искусственного интеллекта определяется скорее его формой, чем содержанием. Так, вероятнее всего, система ИИ, неразрывно связанная с определенной физической оболочкой (например, корпусом робототехнического устройства), и система ИИ, доступная для распространения на разных носителях и использования на разных вычислительных устройствах аналогично традиционной компьютерной программе, будут иметь разный режим правовой охраны.

В научной литературе высказывается мнение, что искусственный интеллект вполне может постичь то же будущее, что и компьютерные программы. Последние, несмотря на свою колоссальную роль в научно-техническом прогрессе и трансформации общества, так и не получили специального режима правовой охраны. Вместо этого в отношении компьютерных программ до сих пор используется авторско-правовой режим, приравнивающий их с точки зрения защиты интеллектуальных прав к литературным произведениям [11].

Однако технологии ИИ не ограничиваются программами для ЭВМ. Значительную их часть составляют изобретения, позволяющие оптимизировать решение вычислительных и иных технических задач с использованием современных методов и алгоритмов. Многие из таких изобретений становятся объектами патентных прав: так, по данным ВОИС на 2019 г. по всему миру было подано около 340 тыс. патентных заявок, содержащих технологии, относящиеся к ИИ. При этом более половины этих заявок было опубликовано после 2013 г. [55].

Таким образом, многообразие понятия «искусственный интеллект» приводит к тому, что режим правовой охраны ИИ в каждом конкретном случае зависит от того, какое выражение нашло применение этой технологии: программа для ЭВМ, робототехническое устройство, инновационный алгоритм и т.д. Однако остается не разрешенным до конца вопрос о том, каков будет правовой статус искусственного интеллекта, включающего сразу несколько объектов интеллектуальных прав с разными режимами защиты.

Праву интеллектуальной собственности известен институт сложного объекта интеллектуальных прав, который включает в себя несколько самостоятельных объектов интеллектуальной собственности. Такие объекты возникают «вследствие способности произведений к интегрированию, т.е. объединению однородных или разнородных объектов воедино» [10]. На наш взгляд, хорошим примером сложного объекта интеллектуальных прав могут послужить видеоигры. Формально являясь компьютерной программой, современная видеоигра с точки зрения права на самом деле представляет собой сложный объект интеллектуальной собственности, сочетающий в себе разные виды охраняемых произведений помимо собственно компьютерного кода – например, музыку, авторский сюжет, художественные изображения и т.д.

Применение института сложного объекта к искусственному интеллекту осложняется тем обстоятельством, что ст. 1240 ГК РФ содержит исчерпывающий перечень таких объектов. Ими могут выступать кинофильмы и иные аудиовизуальные произведения, театрально-зрелищные представления, мультимедийные продукты и базы данных. Видеоигры обладают признаками мультимедийного продукта и включают в себя объекты авторских и смежных прав. Искусственный интеллект, напротив, не подпадает ни под одну из указанных категорий и «представляет собой комплекс технологический решений, которые могут быть отнесены к сферам авторского права (программы для ЭВМ, базы данных), смежных прав (базы данных), патентного права (изобретения), а также секретов производства (ноу-хау). В свою очередь технологии искусственного интеллекта включают в себя искусственный интеллект как комплекс технологический решений и дополнительные технические решения, относимые в большей степени к области патентного права» [3]. И все же, несмотря на многообразие интеллектуально-правовых режимов, которые могут применяться к искусственному интеллекту, развитие интеллектуально-правового статуса сложных технологий ИИ по пути сложного объекта интеллектуальных прав представляется наиболее перспективным.

Ситуация становится еще сложнее, когда искусственный интеллект выступает не объектом, а субъектом своего рода «интеллектуальной деятельности». Речь идет о случаях, когда искусственным интеллектом создаются произведения, в отношении которых можно сказать, что они являются уникальными и даже, в некотором роде, имеют художественную ценность. Во всяком случае, коммерческая ценность некоторых таких произведений уже давно подкреплена практикой: так, например, в марте 2021 г. за более чем 688 тысяч долларов США [22] была продана цифровая картина, написанная роботом Софией, которая в 2017 г. получила широкую известность благодаря слухам о получении ею гражданства Саудовской Аравии [20].

Развитие способностей искусственного интеллекта привело к распространению идей о возможности признания за ИИ авторских прав наравне с человеком. В 2019 г. группа участников проекта «Искусственный изобретатель» подала две международные патентные заявки в отношении изобретений, которые, по утверждению участников группы, были созданы искусственным интеллектом – программой под названием DABUS. При этом в патентных заявках в качестве автора изобретения была указана именно программа. 20 декабря 2019 г. Европейское патентное ведомство (European Patent Office, EPO) приняло решение отклонить представленные на его рассмотрение заявки, указав, что согласно Европейской патентной конвенции изобретателем в заявке должен быть указан человек, а не машина [38]. Однако уже в 2021 г. судья Федерального суда Австралии пришел к противоположному выводу, признав за DABUS юридическую возможность быть указанным автором изобретения, чем создал первый в мировой практике прецедент признания ИИ изобретателем по смыслу патентного права [45]. Позднее это решение было отменено судом вышестоящей инстанции, однако основоположник проекта д-р Стивен Талер планирует добиться пересмотра дела в Верховном суде [37].

Идея о неизбежности превосходства ИИ над человеческим разумом в некоем абстрактном будущем уже давно высказывается в научной литературе. Однако даже при оптимистичном настрое по поводу развития технологий искусственного интеллекта сохранялось представление о необходимости адаптироваться к «новой реальности» с минимальным ущербом для традиционных норм права интеллектуальной собственности [26]. Более скептически настроенные авторы отмечают, что тезис о способности искусственного интеллекта к осуществлению самостоятельной творческой деятельности не находит подкрепления соответствующими техническими данными [29]. В таких условиях позиция австралийского суда первой инстанции выглядит достаточно радикально. Несмотря на то, что, по его мнению, такое решение позволяет устранить юридическую неопределенность в условиях развития инновационных технологий, критики называют его неуместным и даже вводящим в заблуждение [28].

Несмотря на продолжающееся развитие искусственных интеллектуальных систем, способных как минимум имитировать творческую деятельность, вопрос о фигуре автора таких произведений по-прежнему остается неразрешенным. Возможно, что дискуссионная идея наделения ИИ правосубъектностью могла бы в некоторой степени поспособствовать решению этой проблемы. Однако в текущих условиях произведения, созданные искусственным интеллектом, в определенном смысле остаются произведениями без автора. Вопрос же распределения исключительных интеллектуальных прав на эти произведения столь же сложен, как и вопрос о распределении ответственности за действия ИИ, ввиду наличия как минимум нескольких субъектов, имеющих те или иные основания претендовать на эти права, в частности: пользователь, собственник, разработчик программного кода ИИ и т.д.

Часть 2. Современное состояние правового регулирования отношений в сфере искусственного интеллекта и смежных технологий

§6. Глобальные тенденции правового регулирования ИИ и смежных технологий

На сегодняшний день необходимость разработки регуляторного ландшафта для устойчивого развития индустрии искусственного интеллекта стала очевидной, чтобы каждое государство, заинтересованное в извлечении максимальной пользы из ИИ и смежных технологий, уже приступило к работе над правовым регулированием соответствующей сферы. К апрелю 2021 г. собственными стратегическими документами в области развития технологий искусственного интеллекта располагали уже 30 стран, в число которых вошла и Россия [16], а в сентябре 2021 г. свою национальную стратегию искусственного интеллекта представила и Великобритания [48]. При этом наличие национальной стратегии развития ИИ не является необходимым условием разработки правового регулирования искусственного интеллекта и смежных технологий. Некоторые страны выбирают иной подход к этой задаче, делая основную ставку на нормы непосредственного действия, позволяющие урегулировать точечные аспекты разработки и эксплуатации роботов и искусственного интеллекта, либо стремятся найти баланс между стратегическим планированием и непосредственным реагированием [8].

Наиболее продвинутые в области ИИ и смежных технологий страны, такие как США, Великобритания, Европейский союз, Китай, Япония и Южная Корея, уже обладают целым комплексом нормативных актов и проектных документов, направленных на регулирование отношений по разработке и использованию ИИ [47]. Энтузиазм, демонстрируемый ведущими государствами мира по отношению к внедрению в этой сфере все новых документов стратегического и прикладного характера, не остается без критики. В зарубежной литературе отмечается не только тот очевидный факт, что количество отнюдь не означает качество, но и проблема беспрестанного умножения нормативных актов, компетентных органов, специальных инстанций и экспертных групп, относящихся к области искусственного интеллекта; что также не упрощает задачу по отслеживанию многочисленных изменений, предложений и инициатив, все чаще возникающих в этом секторе экспертно-юридической и нормотворческой работы [35].

На наш взгляд, трудности, возникающие в результате усложнения организации экспертной и регуляторной деятельности в области ИИ в последние годы, являются закономерной платой за создание комплексного регулирования разработки и использования искусственного интеллекта и робототехники. Скорость развития индустрии ИИ такова, что ведущим государствам мира приходится направлять значительные административные и финансовые ресурсы на решение задач, связанных с построением эффективной регуляторной базы для устойчивого роста национального сектора технологий искусственного интеллекта. Перед тем как перейти к обзору регуляторного ландшафта в России, рассмотрим основные достижения и тенденции создания такой базы в юрисдикциях крупнейших экономик мира – США, Китае и Евросоюзе.

§ 7. Законодательство об искусственном интеллекте: европейская перспектива

Согласно оценке Специального комитета по искусственному интеллекту (Ad hoc Committee on Artificial Intelligence, CAHAI), разработавшего по поручению Комитета министров Совета Европы ряд документов, содержащих оценку перспектив развития технологий искусственного интеллекта и их правового регулирования в Европе и других регионах мира, ИИ оказывает существенное влияние сразу на четыре области фундаментальных прав человека: уважение человеческого достоинства, свобода личности, равенство, недискриминация и солидарность, а также социально-экономические права [53].

Одной из самых обсуждаемых европейских нормотворческих инициатив в этой области является находящийся в разработке проект Регламента Европейского Парламента и Совета ЕС, упрощенно называемый «Законом Евросоюза об искусственном интеллекте» (далее – проект Закона ЕС об ИИ или проект Закона). Проект соответствующего законодательного акта был впервые опубликован Европейской Комиссией 21 апреля 2021 г.. Как сообщается в пояснительной записке к этому проекту, «данная инициатива стала ответом на запросы Европейского парламента и Европейского совета, которые неоднократно призывали к принятию законодательного решения по обеспечению хорошо функционирующего внутреннего рынка систем искусственного интеллекта, отмечая, что на уровне Евросоюза должна быть выработана соответствующая позиция как в отношении полезных сторон, так и в отношении рисков, связанных с искусственным интеллектом» [46].

Проект Закона ЕС об ИИ предполагает установление нормативно-правового регулирования лишь в отношении разработки и эксплуатации тех систем искусственного интеллекта, которые несут в себе наибольшие риски для общества. В отношении иных систем ИИ, по мнению составителей законопроекта, достаточно разработки и составления соответствующих кодексов поведения. Статья 6 проекта Закона относит к системам высокого риска те системы искусственного интеллекта, которые одновременно удовлетворяют следующим двум условиям: ИИ-система предназначена для использования в качестве части продукта, обеспечивающей его безопасность, либо же в качестве самого продукта, использование которого регулируется нормативными актами гармонизации законодательства Евросоюза, перечисленными в Приложении II к Закону; продукт, у которого частью, отвечающей за безопасность, является ИИ-система, либо который сам является ИИ-системой, должен проходить стороннюю оценку соответствия с целью размещения этого продукта на рынке товаров и услуг в соответствии с нормативными актами гармонизации законодательства Евросоюза, перечисленными в Приложении II к Закону.

Кроме того, к системам высокого риска относятся системы искусственного интеллекта, включенные в закрытый перечень, содержащийся в Приложении III к Закону. В частности, к ним относятся ИИ-системы, задействование в таких уязвимых сферах, как биометрическая идентификация, управление критической инфраструктурой, образование, трудоустройство, оказание государственных услуг, правоохранительная деятельность, управление миграцией, правосудие и демократические процессы. Между тем одну из важнейших областей использования ИИ – применение боевых роботов и интеллектуальных систем в военных конфликтах – составители законопроекта прямо исключили из предмета регулирования проекта Закона (п. 3 ст. 2).

Проекту Закона ЕС об ИИ предшествовал целый ряд актов и документов, направленных на всестороннее регулирование разработки и эксплуатации искусственного интеллекта. К ним относятся Европейская этическая хартия об использовании искусственного интеллекта в системах правосудия 2018 г. (Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment; далее - Европейская этическая хартия ИИ) [40], принятая в рамках Совета Европы, документ под названием «Белая книга искусственного интеллекта – европейский подход к совершенству и доверию» 2020 г. (White Paper on Artificial Intelligence – A European approach to excellence and trust; далее – Белая книга ИИ) [54], а также ряд резолюций и других актов, определяющих особенности правового режима использования искусственного интеллекта в отдельных сферах деятельности.

Европейская этическая хартия ИИ была принята на пленарном заседании Европейской комиссии по эффективности правосудия Совета Европы (European Commission for the Efficiency of Justice, CEPEJ) в декабре 2018 г.. В ней выделены пять основных принципов применения искусственного интеллекта в судебных системах и смежных сферах: принцип уважения фундаментальных прав, принцип недискриминации, принцип качества и безопасности, принцип прозрачности, беспристрастности и справедливости и принцип «под контролем пользователя».

Белая книга ИИ, опубликованная Европейской комиссией в феврале 2020 г., высоко оценивает роль Европы в мировой индустрии робототехники и искусственного интеллекта и утверждает, что Европейский союз способен стать глобальным лидером в области инноваций в цифровой экономике и их применения. Согласно этому документу, залогом успешной реализации европейской стратегии развития ИИ, которая принесет пользу всему европейскому обществу, является построение «экосистемы совершенства» и «экосистемы доверия».

Экосистема совершенства предназначена для поддержки разработки и применения искусственного интеллекта в экономике и публичной власти всего Евросоюза. Созданию экосистемы доверия должно поспособствовать Руководство по этике надежного ИИ (Ethics Guidelines for Trustworthy AI) [39], разработанное Экспертной группой высокого уровня по искусственному интеллекту (High-Level Expert Group on AI, AI HLEG). В этом документе сформулировано семь ключевых требований, предъявляемых к разработке и применению систем ИИ на протяжении всего их жизненного цикла: посредничество и надзор со стороны человека, техническая прочность и безопасность, приватность и управление данными, прозрачность, многообразие, недискриминация и справедливость, общественное и экологическое благополучие, а также подотчетность.

Акценты, расставленные в приведенных стратегических документах, позволяют сделать вывод о том, что основными задачами Евросоюза в области искусственного интеллекта являются обеспечение равного распределения благ от использования этой технологии, минимизация рисков для всех участников отношений по разработке и эксплуатации систем ИИ, а также построение стабильной, надежной и высокоэффективной индустрии искусственного интеллекта за счет вовлечения в контроль над безопасностью ИИ-систем как рядовых граждан, так и бизнеса и государства. Кроме того, отдельно подчеркивается важность симметричного развития технологий ИИ в разных государствах - членах Евросоюза на фоне создания единого инновационного центра мирового уровня, призванного обеспечить Европе глобальное технологическое лидерство в этой сфере.

Как отмечает нидерландский юрист и специалист по правовому регулированию ИИ М. Коп, такой смелый подход европейского законодателя создает новые вызовы для крупнейших конкурентов на рынке – американских и китайских компаний. В случае принятия Закона ЕС об ИИ зарубежным конкурентам придется обеспечить детальное соблюдение всех положений новых европейских стандартов, прежде чем получить доступ к европейскому рынку, насчитывающему 450 миллионов потребителей [30]. Представляется, что такая правовая политика, формально основанная на ценностно-ориентированном подходе, при должной реализации способна обеспечить европейскому бизнесу существенную поддержку в инновационной среде.

§ 8. Американский подход к регулированию ИИ и смежных технологий

На текущий момент основным нормативным актом США в области искусственного интеллекта является Закон о национальной инициативе в области искусственного интеллекта 2020 г. (National Artificial Intelligence Initiative Act of 2020) [49]. Данный акт, вступив в силу 1 января 2021 г., заложил основу для деятельности американского правительства по наращиванию темпов развития технологии искусственного интеллекта и применения ее в целях развития экономики и безопасности государства. Согласно тексту Закона, инициатива в области искусственного интеллекта должна обеспечить продолжение лидерства США в сфере исследования и развития искусственного интеллекта, поддержание ведущего положения США в мире в отношении развития и использования надежных систем искусственного интеллекта в публичном и частном секторах. Кроме того, отмечается необходимость подготовки настоящих и будущих американских кадровых ресурсов к интеграции систем искусственного интеллекта во всех секторах экономики и общества, а также значимость координации текущих мероприятий по исследованию, развитию и демонстрации искусственного интеллекта между гражданскими агентствами, Министерством обороны США и разведывательным сообществом США с целью обеспечения взаимного стимулирования рабочей деятельности.

Приведенные положения отводят США роль первой мировой державы в области изучения и применения искусственного интеллекта, не допуская возможности конкурентных уступок какой-либо другой стране. В этом отношении Закон о национальной инициативе в области искусственного интеллекта продолжает строгую линию поддержания глобального лидерства в разработках технологий ИИ, заданную Распоряжением Президента США о сохранении американского лидерства в области искусственного интеллекта 2019 г.. Для обеспечения этих целей Закон предполагает проведение Президентом США мероприятий по восьми направлениям, в которых значительное внимание уделяется вопросам обучения и подготовки кадров для поддержки инновационной экономики.

Подобным образом расставлены акценты и в других значимых документах, направленных на регулирование американской индустрии искусственного интеллекта. Комиссия национальной безопасности по искусственному интеллекту (National Security Commission on Artificial Intelligence, NSCAI), официально закончившая свою деятельность в 2021 г., разделила свой последний отчет перед Правительством США на две основные тематические части: «Защита Америки в эру искусственного интеллекта» и «Победа в технологической конкуренции». Именно два этих направления являются основными векторами американской политики в области ИИ и смежных технологий. Примечательно в сравнении с документами, подготовленными европейскими экспертными группами, что в финальном отчете NSCAI вопросам национальной безопасности, обороны и военных технологий уделяется пять глав, в то время как защите демократических ценностей – всего одна [50].

Свой стратегический документ в отношении технологий искусственного интеллекта разработал и Североатлантический альянс. Согласно сводке, опубликованной на официальном сетевом портале [51], Стратегия искусственного интеллекта НАТО предполагает применение Альянсом и его союзниками искусственного интеллекта в соответствии со следующими принципами: законность, ответственность и подотчетность, объяснимость и прослеживаемость, надежность, управляемость, уменьшение предвзятости.

Таким образом, основными стратегическими приоритетами американской правовой политики в области искусственного интеллекта являются обеспечение национальной безопасности (в значительной степени от внешних угроз, возникающих в контексте стремительного развития технологий ИИ) и сохранение конкурентного лидерства на мировом рынке искусственного интеллекта.

§ 9. Китайский путь к лидерству в области ИИ: правовой ландшафт

Являясь одним из главных государств - борцов за мировое экономическое лидерство, Китай не мог остаться в стороне от глобальной конкурентной гонки на рынке технологий искусственного интеллекта. В июле 2017 г. Государственный совет КНР опубликовал документ под названием «План развития искусственного интеллекта нового поколения» (далее – План развития ИИ), ориентированный на достижение Китаем глобального лидерства в области искусственного интеллекта к 2030 г. [34]. Согласно Плану развития ИИ, поступательное выполнение поставленных целей и задач по развитию индустрии ИИ на территории КНР к 2020, 2025 и 2030 г. позволит сделать Китай мировым центром инноваций в области искусственного интеллекта.

Для достижения столь высоких результатов в Китае началось создание пилотных зон инноваций и развития технологий ИИ. В августе 2019 г. Министерство науки и технологий КНР опубликовало Руководство по строительству национальных пилотных зон инноваций и развития искусственного интеллекта нового поколения (Guidelines for National New Generation Artificial Intelligence Innovation and Development Pilot Zone Construction Work) [43]. Согласно данному Руководству, к 2023 г. в Китае должно быть создано около 20 пилотных зон, на территории которых будут располагаться лучшие университеты, национальные лаборатории и ведущие технологические компании в области разработки и использования технологий ИИ. При этом к марту 2020 г. в Китае было развернуто уже 11 таких зон [44].

В отличие от Евросоюза и США, стратегические документы и ключевые нормативные акты КНР в области искусственного интеллекта сфокусированы исключительно на экономических и научных достижениях. Вопросы защиты прав граждан и гуманитарных ценностей, как правило, не включаются в основную повестку китайской индустрии ИИ. Иными словами, Китай в еще большей степени, чем США, нацелен на жесткую конкурентную борьбу за мировое лидерство в технологиях искусственного интеллекта. Серьезность этих намерений подтверждается объемом китайских инвестиций в высокотехнологичный бизнес, занимающийся разработкой алгоритмов ИИ, который в отдельные годы заметно превосходил сумму аналогичных вложений США [5].

М.С. Решетникова и Ю.Д. Лукина справедливо замечают, что политика столь стремительного развития технологий ИИ в Китае под лозунгом борьбы за глобальное технологическое господство в значительной степени обусловлена аналогичными действиями США – главного стратегического оппонента Китая на мировой арене и традиционного технологического и экономического лидера современного мира [9]. США предпринимают активные меры по сдерживанию роста китайской торгово-экономической мощи и, как уже отмечалось, делают упор на сохранение собственного лидерства и усиления национальной безопасности в области искусственного интеллекта. В таких условиях ситуация «технологической холодной войны» между двумя крупнейшими экономиками мира становится вполне реальной перспективой.

§ 10. Российская практика регулирования искусственного интеллекта

Несмотря на перспективу конкуренции с такими экономическими гигантами, как ЕС, США и КНР, Россия также планирует развивать собственную инновационную индустрию ИИ и машинного обучения. Тем не менее, на фоне экономического кризиса, вызванного пандемией, объем российских инвестиций в ИИ-стартапы в 2020 г. согласно исследованиям Стэнфордского университета сократился на 63%. Одной из основных причин сдерживания интереса инвесторов называется отсутствие необходимой нормативной базы [15], что лишь обостряет необходимость разработки качественного правового регулирования разработки и использования искусственного интеллекта.

Современный регуляторный ландшафт Российской Федерации в отношении технологий искусственного интеллекта заметно меньше, чем у ряда других крупных юрисдикций. В настоящий момент основополагающим стратегическим документом РФ в области ИИ является Национальная стратегия развития искусственного интеллекта на период до 2030 г., утвержденная Указом Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации»1 (далее – Стратегия развития ИИ в РФ). Статья 19 этого документа выделяет следующие основные принципы развития и использования технологий искусственного интеллекта: защита прав и свобод человека, безопасность, прозрачность, технологический суверенитет, целостность инновационного цикла, разумная бережливость, поддержка конкуренции. Приведенный список в своей общей направленности перекликается с принципами, заложенными в стратегических документах и этических руководствах США и ЕС.

Еще одним важным стратегическим документом, определяющим приоритеты развития искусственного интеллекта в России, является Национальная программа «Цифровая экономика Российской Федерации», подлежащая реализации в период с 2019 по 2024 г. [19]. В рамках этой программы предусмотрена реализация федерального проекта «Искусственный интеллект», осуществляемая с участием Минкомсвязи РФ по следующим направлениям: поддержка научных исследований и разработок; разработка и развитие программного обеспечения, в том числе за счет поддержки стартапов и пилотных внедрений технологий ИИ; создание комплексной системы правового регулирования в сфере искусственного интеллекта; повышение доступности и качества данных; повышение доступности аппаратного обеспечения; повышение уровня обеспечения российского рынка технологий ИИ квалифицированными кадрами и уровня информированности населения о возможных сферах использования ИИ.

Еще одним важным стратегическим документом, определяющим приоритеты развития искусственного интеллекта в России, является Национальная программа «Цифровая экономика Российской Федерации», подлежащая реализации в период с 2019 по 2024 г. [19]. В рамках этой программы предусмотрена реализация федерального проекта «Искусственный интеллект», осуществляемая с участием Минкомсвязи РФ по следующим направлениям: поддержка научных исследований и разработок; разработка и развитие программного обеспечения, в том числе за счет поддержки стартапов и пилотных внедрений технологий ИИ; создание комплексной системы правового регулирования в сфере искусственного интеллекта; повышение доступности и качества данных; повышение доступности аппаратного обеспечения; повышение уровня обеспечения российского рынка технологий ИИ квалифицированными кадрами и уровня информированности населения о возможных сферах использования ИИ.

В целях установления экспериментального правового режима 123-ФЗ наделяет Правительство Москвы на срок в 5 лет рядом полномочий, реализация которых призвана улучшить условия разработки и реализации технологий ИИ на территории города Москвы. Перечень таких полномочий приведен в статье 4 123-ФЗ. Вместе с тем из содержания перечня явно следует, что такие существенные для IT-бизнеса вопросы, как, например, установление специальных налоговых режимов и льгот, остаются за рамками экспериментального правового режима [6]. Причиной тому является невозможность урегулирования вопросов, относящихся к ведению РФ, на уровне субъекта федерации даже в условиях создания особых полномочий. Поэтому, на наш взгляд, в настоящий момент довольно трудно предсказать, насколько эффективно простимулируют развитие технологий искусственного интеллекта те ограниченные меры, которые установлены 123-ФЗ напрямую (в частности, вопросы регулирования персональных данных) либо полномочиями по установлению которых он наделяет Правительство Москвы.

В октябре 2021 г. в рамках I Международного форума «Этика искусственного интеллекта: начало доверия» с участием Минэкономразвития и представителей Альянса в сфере искусственного интеллекта, объединяющего крупнейшие российские компании, инвестирующие в технологии ИИ, был подписан Кодекс этики в сфере искусственного интеллекта [17] (далее – Кодекс этики в сфере ИИ). Согласно положениям Кодекса этики в сфере ИИ, главным приоритетом развития технологий ИИ является защита прав и интересов как всего человеческого общества, так и отдельных людей. Этот приоритет выражается в следующих принципах: человеко-ориентированный и гуманистический подход, уважение автономии и свободы воли человека, соответствие закону, недискриминация, оценка рисков гуманитарного воздействия. Присоединение к Кодексу этики в сфере ИИ является добровольным.

На наш взгляд, Кодекс этики в сфере ИИ представляет собой скорее рабочий документ, закладывающий первую основу для будущего регулирования отношений, складывающихся по поводу разработки и использования технологий ИИ, чем фундаментальный свод правил и рекомендаций, такой как Руководство по этике надежного ИИ или Белая книга ИИ, разработанные экспертными группами Евросоюза. Несмотря на это, принятие Кодекса является важным шагом на пути к созданию в России комплексной системы регулирования искусственного интеллекта, сочетающей государственные нормативные требования и конвенции, разработанные по инициативе делового сообщества.

Необходимость разработки правового регулирования искусственного интеллекта и смежных технологий подчеркивается и отдельными частными инициативами. Так, в 2016 г. основатель компании Grishin Robotics Дмитрий Гришин представил концепцию первого в мире закона о робототехнике, который получил немало внимания как от прессы, так и со стороны экспертного сообщества [21]. Столь ранний шаг в сторону создания специального регулирования отношений, связанных с разработкой и использованием роботов и ИИ, объясняется наблюдавшимся уже в то время ажиотажем по поводу технологий искусственного интеллекта и стремительным ростом инвестиций в соответствующую сферу. Непосредственные разработчики законопроекта В.В. Архипов и В.Б. Наумов указывают, что это был «первый опыт по созданию подобного документа, который разработан для того, чтобы инициировать дискуссию о системном (а не нацеленном на регулирование отдельных аспектов отношений с участием роботов) законодательном регулировании в области робототехники» [1].

Еще одним примечательным проектом является Модельная конвенция о робототехнике и искусственном интеллекте (далее – Конвенция), опубликованная в 2017 г. [18]. Как сообщают авторы Конвенции А.В. Незнамов и В.Б. Наумов, основной целью разработки этого документа было «сделать первый шаг на пути к общему пониманию основных правил сосуществования людей и киберфизических систем» [7]. Конвенция содержит ряд принципов и правил, которые потенциально могли бы лечь в основу нормативно-правового регулирования процессов создания, внедрения или использования роботов и систем ИИ как на международном, так и на национальном уровнях.

Итак, констатируем, что создание комплексного законодательства о разработке и использовании искусственного интеллекта и робототехники в России находится еще только в начале пути. Стратегические документы и инициативные законопроекты, которые существуют в настоящий момент, могут лечь в основу будущего правового регулирования, для формирования которого потребуется длительная экспертная и нормотворческая работа, сопровождающаяся активными дискуссиями на разных уровнях. Тем не менее общественное и экспертное внимание к необходимости урегулирования индустрии роботов и искусственного интеллекта позволяет надеяться, что в ближайшие годы российское право ждет прогресс в решении этой проблемы.

Заключение

Проведенный анализ позволяет сделать вывод, что на текущий момент ряд фундаментальных проблем правового регулирования искусственного интеллекта остается неразрешенным. Возможно, одним из результатов масштабной нормотворческой работы, организуемой крупнейшими государствами мира, станет нахождение надежных подходов к разрешению тех сложных теоретико-правовых вопросов, которыми наполнена тематика правовых аспектов искусственного интеллекта и смежных технологий. Свою роль в этом процессе могут сыграть и инициативы международных организаций, таких как ВОИС и ОЭСР.

Тем не менее с учетом сделанных выводов, а также констатации ряда достижений зарубежных юристов и законодателей в области построения нормативно-правового регулирования разработки и использования ИИ и смежных технологий представляется возможным сделать следующие рекомендации в отношении развития такого регулирования в Российской Федерации.

1.

Изучение иностранного опыта нормотворческой работы в сфере искусственного интеллекта. Объем работы, проделанный ведущими странами мира при разработке правового регулирования ИИ, при грамотном анализе позволит выявить сильные и слабые стороны тех или иных регуляторных стратегий, а также избежать некоторых спорных решений, которые были приняты первопроходцами в этой области.

2.

Дальнейшее развитие сотрудничества с частным сектором и представителями бизнеса. Американская деловая практика, опыт многоуровневой кооперации Евросоюза и темпы прорывного научно-экономического развития Китая показывают, что наиболее рациональным подходом является максимально тесное сотрудничество в вопросе разработки регулирования с представителями крупного бизнеса, являющимися главными национальными инвесторами в инновационную экономику и технологии ИИ, а также облегчение налогового бремени и бюрократической нагрузки в отношении высокотехнологичных стартапов.

3.

Развитие научной дискуссии по вопросам правового регулирования искусственного интеллекта и смежных технологий. Такая дискуссия имеет значение не только для развития правовой доктрины как таковой, но и для эффективного выявления слабых сторон государственных и частных проектов нормативно-правовых актов и документов. При этом для достижения наибольшей полноты и глубины к участию в этой дискуссии должны привлекаться не только юристы и правоведы, но и специалисты в области искусственного интеллекта, философии и этики, а также эксперты, способные дать оценку социально-экономических последствий действий и решений в сфере регулирования индустрии искусственного интеллекта.

Относительно международного уровня регулирования ИИ и смежных технологий представляется наиболее важным отметить острую необходимость развития глобального сотрудничества в этой сфере. В процессе исследования отмечалась растущая острота конкуренции на мировом рынке технологий ИИ как среди частных компаний, так и среди государств. В таких условиях повышается риск снижения уровня защиты прав и свобод человека и гражданина, а также значимости фундаментальных гуманитарных ценностей, поскольку государства и компании вынуждены все больше руководствоваться исключительно экономическими соображениями. На наш взгляд, соперничество в области развития искусственного интеллекта и смежных технологий должно способствовать повышению общего благосостояния человечества, а не становиться катализатором социально-гуманитарного кризиса современного общества. Развитие универсального международно-правового регулирования разработки и использования робототехники и ИИ на базе всеобщих гуманитарных ценностей должно стать неотъемлемой частью современных тенденций развития правовых аспектов искусственного интеллекта и смежных технологий.

 

 


1 Указ Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации». Режим доступа: СПС «ГАРАНТ».

 

Список литературы

1. Архипов В.В. Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России закона о робототехнике / В.В. Архипов, В.Б. Наумов // Труды СПИИРАН. 2017. № 6 (55). С. 46-62.

2. Архипов В.В. О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности / В.В. Архипов, В.Б. Наумов // Закон. 2017. № 5. С. 157-170.

3. Балашова А.И. Искусственный интеллект в авторском и патентном праве: объекты, субъектный состав правоотношений, сроки правовой охраны // Журнал Суда по интеллектуальным правам, № 2 (36), июнь 2022 г. С. 90-98.

4. Введенская Е.В. Актуальные проблемы робоэтики // Науковедческие исследования. 2019. № 2019. С. 88-101.

5. Комиссина И.Н. Современное состояние и перспективы развития технологий искусственного интеллекта в Китае // Проблемы национальной стратегии. 2019. № 1 (52). С. 137-160.

6. Левашенко А.Д. Проблемы экспериментального правового режима в рамках Федерального закона от 24.04.2020 № 123-ФЗ / А.Д. Левашенко, К.А. Черновол // Хозяйство и право. 2020. № 9 (524). С. 108-116.

7. Незнамов А.В. Стратегия регулирования робототехники и киберфизических систем / А.В. Незнамов, В.Б. Наумов // Закон. 2018. № 2. С. 69-89.

8. Правовые и этические аспекты, связанные с разработкой и применением систем искусственного интеллекта и робототехники: история, современное состояние и перспективы развития: монография / В.В. Архипов и др.; под общ. ред. В.Б. Наумова – СПб.: НП-Принт, 2020. — 260 с.

9. Решетникова М.С. Политика Китая в борьбе за мировое господство в области искусственного интеллекта / М.С. Решетникова, Ю.Д. Лукина // Вопросы инновационной экономики, 2020. Т. 10. № 4. С. 1929-1942.

10. Рожкова М.А. Интеллектуальная собственность: основные аспекты охраны и защиты: учебное пособие. – Москва : Проспект, 2015. – 248 с.

11. Талимончик В. Является ли искусственный интеллект объектом международно-правовой охраны? // Интеллектуальная собственность. Авторское право и смежные права. 2020. № 12. С. 17-24.

12. Юдина М.А. Индустрия 4.0: перспективы и вызовы для общества // Государственное управление. Электронный вестник. 2017. № 60. С. 197-215.

13. Хисамова З.И. Сущность искусственного интеллекта и проблема определения правосубъектности / З.И. Хисамова, И.Р. Бегишев // Вестник Московского государственного областного университета. Серия: Юриспруденция. 2020. № 2. С. 96–106.

14. Искусственный интеллект и политика в области интеллектуальной собственности [Электронный ресурс] // Всемирная организация интеллектуальной собственности [сайт]. – Режим доступа: https://www.wipo.int/about-ip/ru/artificial_intelligence/policy.html

15. Инвестиции в ИИ-стартапы в 2020 году снизились на 63% [Электронный ресурс] // ТАСС [сайт]. – Режим доступа: https://tass.ru/ekonomika/11152153

16. Как развивается искусственный интеллект? [Электронный ресурс] // Совет по внешней и оборонной политике [сайт]. – Режим доступа: http://svop.ru/main/36999/

17. Кодекс этики в сфере ИИ [Электронный ресурс] // Альянс в сфере искусственного интеллекта [сайт]. – Режим доступа: https://a-ai.ru/code-of-ethics/

18. Модельная конвенция о робототехнике и искусственном интеллекте [Электронный ресурс] // Проект «РОБОПРАВО» [сайт]. – Режим доступа: https://robopravo.ru/modielnaia_konvientsiia

19. Официальный сайт Национальной программы «Цифровая экономика Российской Федерации» [Электронный ресурс]. – Режим доступа: https://digital.ac.gov.ru/

20. Правда ли, что у робота-гражданки больше прав, чем у саудиток? [Электронный ресурс] // Русская служба BBC NEWS [сайт]. – Режим доступа: https://www.bbc.com/russian/features-41778669.

21. Россия может первой узаконить роботов [Электронный ресурс] // ВЕДОМОСТИ [сайт]. – Режим доступа: https://www.vedomosti.ru/technology/articles/2016/12/15/669703-rossiya-uzakonit-robotov

22. Цифровая картина робота-андроида продана почти за 700 тысяч долларов [Электронный ресурс] // РИА Новости [сайт]. – Режим доступа: https://ria.ru/20210325/kartina-1602803675.html

23. Число роботических операций в Москве за четыре года достигло 4,5 тысячи [Электронный ресурс] // Официальный сайт Мэра Москвы. – Режим доступа: https://www.mos.ru/news/item/112032073/

24. Asaro P. What Should We Want from a Robot Ethic? // International Review of Ethics. 2006. № 12. С. 9-16.

25. Buiten M. Towards Intelligent Regulation of Artificial Intelligence // European Journal of Risk Regulation. 2019. № 10 (1). С. 41-59.

26. Butler T.L. Can a Computer be an Author – Copyright Aspects of Artificial Intelligence // A Journal of Communications and Entertainment Law. 1981. № 4 (4). С. 707-748.

27. Chesterman S. Artificial Intelligence and the Limits of Legal Personality // International and Comparative Law Quarterly. 2020. № 69 (4). С. 819-844.

28. Drexl J. Artificial Intelligence Systems as Inventors? A Position Statement of 7 September 2021 in View of the Evolving Case-Law Worldwide / J. Drexl, R. Hilty, D. Kim, P.R. Slowinski // Max Planck Institute for Innovation & Competition Research Paper, 2021. № 21 (20).

29. Kim D. ‘AI-Generated Inventions’: Time to Get the Record Straight? // GRUR International, 2020. № 5. P. 443–456.

30. Kop M. EU Artificial Intelligence Act: The European Approach to AI // Transatlantic Antitrust and IPR Developments. Stanford Law School. 2021. P. 1-11.

31. Kovac M. Autonomous Artificial Intelligence and Uncontemplated Hazards: Towards the Optimal Regulatory Framework // European Journal of Risk Regulation. 2021. P. 1-20.

32. Lawrence D. Artificial Intelligence: The Shylock Syndrome / D. Lawrence, C. Palacios-Gonzalez, J. Harris // Cambridge Quarterly of Healthcare Ethics. 2016. № 2. P. 250-261.

33. Lee J. Artificial Intelligence and Human Rights: Four Realms of Discussion: Summary of Remarks // Proceedings of the ASIL Annual Meeting. 2020. 114. P. 242-245.

34. Lucero K. Artificial Intelligence Regulation and China's Future // Columbia Journal of Asian Law. 2019. № 33 (1). P. 94-171.

35. Veale, M. A Critical Take on the Policy Recommendations of the EU High-Level Expert Group on Artificial Intelligence // European Journal of Risk Regulation. № 11 (1). E1. P. 1-10.

36. Class 2 Device Recall da Vinci SP surgical system [Электронный ресурс] // U.S. Food and Drug Administration [сайт]. – Режим доступа: https://www.accessdata.fda.gov/scripts/cdrh/cfdocs/cfRes/res.cfm?ID=180439

37. Dr Thaler seeks special leave to appeal to the High Court from the Full Federal Court of Australia decision which held that an Artificial Intelligence machine cannot be named an inventor on a patent application [Электронный ресурс] // Dentons [сайт]. – Режим доступа: https://www.dentons.com/en/insights/articles/2022/may/17/full-federal-court-of-australia-holds-that-an-artificial-intelligence

38. EPO refuses DABUS patent applications designating a machine inventor [Электронный ресурс] // European Patent Office [сайт]. – Режим доступа: https://www.epo.org/news-events/news/2019/20191220.html

39. Ethics guidelines for trustworthy AI [Электронный ресурс] // European Commission [сайт]. – Режим доступа: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

40. European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment [Электронный ресурс]. – Режим доступа: https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c

41. First completely robot-supported microsurgical operations performed [Электронный ресурс] // The University of Münster [сайт]. – Режим доступа: https://www.uni-muenster.de/news/view.php?&cmdid=12768

42. First International Symposium on Roboethics [Электронный ресурс]. – Режим доступа: http://www.roboethics.org/sanremo2004/

43. Guidelines for National New Generation Artificial Intelligence Innovation and Development Pilot Zone Construction Work [Электронный ресурс] // The State Council of the People’s Republic of China [сайт]. – Режим доступа: http://www.gov.cn/xinwen/2019-09/06/content_5427767.htm

44. Guidelines for National New Generation Artificial Intelligence Innovation and Development Pilot Zone Construction Work: Translation [Электронный ресурс] // Center for Security and Emerging Technology [сайт]. – Режим доступа: https://cset.georgetown.edu/publication/guidelines-for-national-new-generation-artificial-intelligence-innovation-and-development-pilot-zone-construction-work/

45. In the Courts: Australian Court finds AI systems can be “inventors” [Электронный ресурс] // World Intellectual Property Organization [сайт]. – Режим доступа: https://www.wipo.int/wipo_magazine/en/2021/03/article_0006.html

46. Proposal for a Regulation Of The European Parliament And Of The Council Laying Down Harmonised Rules On Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts [Электронный ресурс] // EUR-Lex [сайт]. – Режим доступа: https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1623335154975&uri=CELEX%3A52021PC0206

47. National AI policies & strategies [Электронный ресурс] // OECD.AI Policy Observatory [сайт]. – Режим доступа: https://oecd.ai/en/dashboards

48. National AI Strategy [Электронный ресурс]. – Режим доступа: https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1020402<...>

49. National Artificial Intelligence Initiative Act of 2020 [Электронный ресурс]. – Режим доступа: https://www.congress.gov/116/crpt/hrpt617/CRPT-116hrpt617.pdf#page=1210.

50. National Security Commission on Artificial Intelligence Final Report [Электронный ресурс]. – Режим доступа: https://cybercemetery.unt.edu/nscai/20211005220332/https://assets.foleon.com/eu-west-2/uploads-7e3kk3/48187/nscai_full_report_digital.04d6b124173c.pdf

51. Summary of the NATO Artificial Intelligence Strategy [Электронный ресурс] // North Atlantic Treaty Organization [сайт]. – Режим доступа: https://www.nato.int/cps/en/natohq/official_texts_187617.htm

52. The AI Wonk [Электронный ресурс] // OECD.AI Policy Observatory [сайт]. – Режим доступа: https://oecd.ai/en/wonk

53. Towards Regulation of AI Systems [Электронный ресурс]. – Режим доступа: https://rm.coe.int/prems-107320-gbr-2018-compli-cahai-couv-texte-a4-bat-web/1680a0c17a%203A52021PC0206

54. WHITE PAPER On Artificial Intelligence - A European approach to excellence and trust [Электронный ресурс]. – Режим доступа: https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf

55. WIPO Technology Trends 2019: Artificial Intelligence [Электронный ресурс]. – Режим доступа: https://www.wipo.int/edocs/pubdocs/en/wipo_pub_1055.pdf

56. World Robot Declaration [Электронный ресурс]. – Режим доступа: http://prw.kyodonews.jp/prwfile/prdata/0370/release/200402259634/index.html