Специфика гражданско-правовой ответственности за вред или противоправные деяния, причиненные искусственном интеллектом




ТРАНСФОРМАЦИЯ ИНСТИТУТОВ ГРАЖДАНСКОГО ПРАВА В УСЛОВИЯХ ЦИФРОВИЗАЦИИ И РАЗВИТИЯ НОВЫХ ТЕХНОЛОГИЙ

Эшпулатов Т.А.

Университет имени О.Е. Кутафина (МГЮА)

Студент

 

Специфика гражданско-правовой ответственности за вред или противоправные деяния, причиненные искусственном интеллектом

Кто будет нести ответственность за вред, причиненный деятельностью искусственного интеллекта: лицо, разработавшее искусственный интеллект (далее – ИИ); лицо, которое использует ИИ в предпринимательской деятельности или же сам ИИ? Возможно ли признать ИИ субъектом права в будущем?

Говоря об ИИ, нужно прежде всего определиться с понятием. Так, П.М. Морхат, судья Арбитражного суда МО, раскрывает ИИ следующим образом: «ИИ – это полностью или частично автономная самоорганизующая (самоорганизующаяся) компьютерно-аппаратно-программная виртуальная или киберфизическая, в том числе биокибернетическая, система, наделенная/обладающая способностями и возможностями мыслить, самоогранизовываться, обучаться, самостоятельно принимать решения и т.д.[1]

Если обратиться к нормативному раскрытию понятия ИИ, то в ряде ГОСТов можно найти законодательные дефиниции ИИ. Так, в п. 3.17. ГОСТа Р 43.0.5-2009 ИИ раскрывается как «моделируемая (искусственно воспроизводимая) интеллектуальная деятельность мышления человека »[2].

На сегодняшний день в представлении людей робот и ИИ отождествляются. Но так ли это на самом деле? Проанализировав ГОСТы, раскрывающие понятия «обычный промышленный робот» и «робот с элементами искусственного интеллекта», можно уверенно сказать, что это совершенно разные явления. Так, «обычный промышленный робот» — это автоматически управляемый, перепрограммируемый манипулятор, программируемый по трем или более степеням подвижности, который может быть установлен стационарно или на мобильной платформе для применения в целях промышленной автоматизации[3]. А «робот с элементами искусственного интеллекта» - это робот, выполняющий работу путем считывания данных из окружающей среды, взаимодействия с внешними источниками и адаптации своего поведения[4].

Итак, можно сделать вывод, что главным отличительным признаком «обычного робота» и «робота с элементами искусственного интеллекта» выступает наличие у ИИ мышления и способности принимать решения без заранее заданных программ.

Актуальность правового изучения ИИ обусловлено тем, что современные нормы действующего законодательства в условиях развития цифровых технологий оказываются не готовыми или не способными регулировать отдельные аспекты общественных отношений. Данные отношения называют киберфизическими правоотношениями, так как они урегулированы нормами цифрового права. В данном случае понятие «цифровое право» условное и межотраслевое, которое включает в себя нормы и гражданского, и предпринимательского, и административного права, возможно, и уголовного права, но в далеком будущем.

Помимо этого, важность правового исследования ИИ диктуется в том числе и политикой различных государств. Так, основные направления развития цифрового права отражены в различных нормативно-правовых актах, к числу которых относятся: Решение Высшего Евразийского экономического совета от 11.10.2017 N 12 «Об Основных направлениях реализации цифровой повестки Евразийского экономического союза до 2025 года», Указ Президента Российской Федерации от 01.12.2016 N 642 «О Стратегии научно-технологического развития Российской Федерации»[5], Распоряжения Правительства от 23.03.2018 N 482-р[6] и от 28.07. 2017 N 1632-р[7]

Но государственное регулирование не всегда успевает за реальным развитием рыночных отношений. И если отсутствует государственное регулирование, то приходится прибегнуть к институтам саморегулирования. Так, наглядным примером выступает Partnership on AI – партнерство в продвижение искусственного интеллекта, в состав которого входит Amazon, Intel, Sony, Apple, Ebay, Google, IBM, Facebook, Microsoft и другие[8]

Разобравшись с понятием и актуальностью правового изучения ИИ, следует перейти к сфере юридической ответственности за вред, причиненный деятельностью искусственного интеллекта. Но перед этим следует изложить суть «законов» работы ИИ. Так, еще в прошлом столетии А. Азимов в своих трудах изложил «три закона робототехники»: 1) действия (бездействия) робота не могут и не должны вредить человеку; 2) робот должен подчиняться командам человека, за исключением случаев, когда команды нарушают первый закон; 3) робот должен заботиться о своей безопасности в пределах первого и второго законов[9].

В законах на сегодняшний практически во всем мире трудно найти точную норму, которая регламентировала бы ответственность за вред, причиненный деятельностью ИИ. Однако в теории были предложены некоторые варианты: 1) ответственность лица, программировавшего робота; 2) ответственность лица, использующего робота в качестве инструмента; 3) ответственность самого искусственного интеллекта [10]. Комментируя последний пункт, стоит отметить, что на наш взгляд ответственность самого ИИ возможна только в далеком будущем, минимум в XXII веке.

Ответственность лица, программировавшего робота с элементами ИИ. На сегодняшний день робот является объектом гражданских прав в соответствии со ст. 128 ГК РФ. Это значит, что его можно отчуждать любыми возможными законными способами. В научном сообществе предлагается ответственность именно разработчиков постольку, поскольку лица, использующие роботов, «не всегда технически способны воздействовать на работу искусственного интеллекта, равно как и предугадать их поведение»[11]

Полагаем, что данный подход вызовет сложности в реализации привлечения к ответственности, так как процедура будет не быстрой ввиду привлечения экспертов для установления виновности разработчиков. Более того участникам предпринимательской деятельности в данной области вряд ли будет выгодно терять время на ожидание проведения экспертизы.

Ответственность лица, использующего робота в качестве инструмента. В данном подходе Лаптев В.А. предлагает применять аналогию ст. 1079 ГК РФ, а именно: «ответственность за деятельность, связанную с применением искусственного интеллекта, несут лица, использующие данный интеллект как объекта повышенной опасности». [12] Но возникает вопрос, что такое источник повышенной опасности? Верховный Суд РФ в Постановлении Пленума от 26.01.2010 № 1 (далее – ПП ВС № 1от 26.01.2010 ) раскрыл данное понятие: «Источником повышенной опасности следует признать любую деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека, а также деятельность по использованию, транспортировке, хранению предметов, веществ и других объектов производственного, хозяйственного или иного назначения, обладающих такими же свойствами»[13] Помимо этого, Верховный Суд РФ отметил, что ст. 1079 ГК РФ не содержит исчерпывающего перечня источников повышенной опасности и потому суд вправе признать источником повышенной опасности также иную деятельность, не указанную в перечне (абз.2 п. 18 ПП ВС № 1).

Комментируя второй подход ответственности, можно сказать, что данный вариант, по нашему мнению, будет применяться в России на ближайшие несколько десятилетий в случае введения в экономический оборот ИИ.

Ответственность самого искусственного интеллекта. Представляется трудным на первый взгляд вообразить, что ИИ является субъектом права, носителем субъективных права и обязанностей. Раскрывая ответственность самого робота в будущем, можно привести в качестве примера специфику уголовной ответственности ИИ. В.А. Лаптев предлагает в качестве реализацию уголовной ответственности «тотальную утилизацию» робота в случае совершения преступлений, посягающих на жизнь и здоровье человека. [14] Гражданскую ответственность ИИ может нести путем компенсации ущерба, административную ответственность – штрафом или дисквалификацией.

В завершение можно сказать, что на сегодняшний день как во всем мире, так и в России, неоднозначный подход в области юридической ответственности за вред или противоправные деяния, причиненные деятельностью искусственного интеллекта. Из всех трех предложенных вариантов, проанализированных выше, наиболее гибким и приемлемым представляется ответственность владельца, использующего робота постольку, поскольку в данном случае есть как норма закона (ст. 1079 ГК РФ), так и сложившаяся судебная практика (ПП ВС № 1 от 26.01.2010).

 


[1] Морхат П.М. Искусственный интеллект: правовой взгляд. М.: Буки Веди, 2017. С. 69.

[2] ГОСТ Р 43.0.5-2009 «Информационное обеспечение техники и операторской деятельности. Процессы информационно-обменные в технической деятельности. Общие положения». П. 3.17.

[3] ГОСТ Р 60.0.0.2-2016 Роботы и робототехнические устройства. Классификация. П. 3.5.

[4] ГОСТ Р ИСО 8373-2014 Роботы и робототехнические устройства. Термины и определения. (документ утратил силу 01 сентября 2019 г.)

[5] СЗ РФ. 2016. N 49. Ст. 6887.

[6] СЗ РФ. 2018. N 15 (Часть V). Ст. 2173.

[7] СЗ РФ. 2017. N 32. Ст. 5138 (документ утратил силу в связи с изданием распоряжения Правительства РФ от 12. 02.2019 N 195-р // СЗ РФ. 2019. N 8. Ст. 803).

[8] https://www.partnershiponai.org/ (дата обращения 16.10.2020).

[9] Azimov A. Robotaround. N.Y.: Basic Books, 1960. 253 p.

[10] Морхат П.М. Искусственный интеллект: правовой взгляд. М.: Буки Веди, 2017. 257 с.

[11] Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. N 2. 2019. С. 79–102.

[12] Там же.

[13] Постановление Пленума Верховного Суда РФ от 26.01.2010 N 1 "О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина" (п.18) // СПС «КонсультантПлюс»

[14] Лаптев В.А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. N 2. 2019. С. 79–102.



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2020-11-18 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: