Научный руководитель: Латыпова Наталия Сергеевна




ПРАВОВОЙ СТАТУС ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Калимуллина Аделия Филюзовна

студент Института права

Башкирского государственного университета,

г. Уфа, Россия

e-mail: adelia.f@mail.ru

Научный руководитель: Латыпова Наталия Сергеевна

кандидат юридических наук, доцент кафедры

теории государства и права Института права

Башкирского государственного университета,

г. Уфа, Россия

 

Современная жизнь неразрывно связана с использованием информационных технологий. Особой перспективностью в этой области обладает искусственный интеллект, представляющий собой самообучающиеся алгоритмы. Его разработка направлена на оптимизацию трудоемких процессов в различных сферах жизни. В связи с этим, важную роль приобретает создание правовой базы по регулированию вопросов применения ИИ. Одной из ключевых проблем является определение места искусственного интеллекта в системе правоотношений. Цель: анализ различных позиций ученых-правоведов в отношении статуса ИИ. Методы: общенаучный (анализ) и частнонаучный (сравнение). Результаты: в настоящее время сохраняется разрозненность и противоречивость взглядов в отношении правового режима ИИ. Тем не менее, в отечественной практике наблюдается тенденция к рассмотрению искусственного интеллекта как объекта права.

Ключевые слова: искусственный интеллект; субъект права; объект права; правовое регулирование; правовой режим; правовой статус.

Информационные технологии все прочнее входят в нашу жизнь, и неслучайно одним из приоритетных направлений научно-технического развития России является внедрение искусственного интеллекта во многие сферы жизни общества. По мнению вице-премьера Правительства РФ Дмитрия Чернышенко, искусственный интеллект позволит облегчить работу различных по сложности технических и экономических систем [1]. Важность применения ИИ также подчеркивается утвержденными Указами Президента РФ: №490 от 10.10.2019[1], №642 от 01.12.2016[2] и другими. В связи с этим актуальным становится вопрос о правовом регулировании ИИ, в частности о том, какое положение он занимает в структуре правоотношения. Прежде чем перейти к рассмотрению подходов, касающихся правового статуса искусственного интеллекта, целесообразно дать определение данному понятию, и здесь возникает проблема неоднозначности термина.

Так, П.М. Морхат под данным термином понимает компьютерную или киберфизическую систему с антропоформным (человекоподобным) «интеллектом» [2, с. 7].

Ученый И.А. Филипова рассматривает искусственный интеллект как «способность интеллектуальных систем выполнять творческие функции, обычно присущие человеку» [3, с. 5].

Исследователи Е.А. Войниканис, Е.В. Семенова, Г.С. Тюляев под искусственным интеллектом подразумевают программу, благодаря итеративному обучению на больших массивах данных способную создавать независимые от замысла разработчиков результаты [4, с. 138].

В определении, закрепленном в Национальной стратегии развития ИИ до 2030 года, искусственный интеллект понимается как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека.»[3]

Итак, проанализировав вышеперечисленные интерпретации, мы можем прийти к следующему выводу: искусственный интеллект – это компьютерная система, или программа, с помощью средств автоматизированного машинного обучения имитирующая человеческий интеллект. ИИ – самообучающаяся система, характеризующаяся автономностью.

Среди ученых-правоведов отсутствует также единство мнений по поводу статуса искусственного интеллекта в структуре правоотношения. Исследователи рассматривают ИИ как:

1) субъект (так называемое «электронное лицо»);

2) субъект и объект;

3) объект.

Рассмотрим каждую позицию подробнее.

Так как ИИ способен совершать поиск вариантов без заранее заданных параметров, то можно утверждать, что он обладает определенной автономностью, т.е. результаты его деятельности не всегда возможно предугадать. Это в свою очередь наталкивает на мысль, что ИИ не подчиняется актору, следовательно, не выражает его волю. Согласно резолюции Парламента Евросоюза некоторые роботы могут выступать как «электронные лица», обладающие ответственностью за решения, принимаемые автономно[4].

По О.А. Ястребову, электронное лицо – совокупность норм права, наделяющих ИИ правами и обязанностями [5, с. 36].

В.А. Лаптев занимает промежуточную позицию в дискуссии и в своей статье приводит пример с промышленным AI-роботом:

а) он может быть зарегистрирован под учетным номером

б) обладать хозяйственной компетенцией, соответствующей целям его деятельности;

в) обладать имущественной базой (так как это материальная ценность)

г) его можно привлечь к юридической ответственности (например, в виде принудительного отключения или доработки программы, а также утилизации, как крайней мере ответственности)

Т.е. робот выступает в данном случае и как субъект, и как объект [6].

Антон Иванов (являвшийся председателем Высшего Арбитражного Суда Российской Федерации с 2005 года до момента его упразднения в 2014 году) подчеркивает, что «такой двойственный статус породил бы множество новых теоретических проблем» [Филипова курс лекций с.28].

Иная точка зрения предполагает, что ИИ следует рассматривать как объект права.

С.А. Симонян сравнивает ИИ с правовым положением животного:

а) оба обладают определенной долей автономности и непредсказуемости

б) несут функциональную полезность

Но при этом животные, будучи живыми существами, имеют статус вещей [с. 239].

И.С. Павлов подчеркивает, что «у интеллектуальных систем отсутствует большее количество общих с людьми характеристик» [с. 29]. К таким характеристикам можно отнести интенциональность действий, рациональность и свободную волю [Морхат с. 114].

Несмотря на разрозненность мнений, определенную ясность в отношении правового статуса ИИ вносит принятый 26 октября 2021 на I Международном форуме «Этика искусственного интеллекта: начало доверия» Кодекс этики ИИ.

Основные принципы применения ИИ:

1) Защита интересов и прав людей и отдельного человека (включает в себя человеко-ориентированный, гуманистический подход, уважение автономии и свободы воли человека, законность, недискриминацию и оценку рисков)

2) Ответственность актора при создании и использовании ИИ (сюда относятся риск-ориентированный подход, ответственное отношение, предосторожность, непричинение вреда, идентификация ИИ в общении с человеком, безопасность работы с данными и информацией, добровольная сертификация и соответствие положениям Кодекса, контроль рекурсивного самосовершенствования СИИ)

3) Ответственность актора за последствия использования СИИ (поднадзорность, ответственность)

4) Внедрение и применение ИИ по назначению и с пользой для людей (также включает в себя пункт стимулирования развития ИИ)

5) Интересы разработки ИИ выше интересов конкуренции (корректность сравнений СИИ, развитие компетенций, сотрудничество разработчиков)

6) Максимальная прозрачность и правдивость в информировании об уровне развития ИИ, его возможностях и рисках (достоверность информации, повышение осведомленности об этике применения)[5].

Таким образом, вышеперечисленные принципы подразумевают, особенно третий принцип, что ответственность за результаты работы ИИ всегда несет человек (актор), и, следовательно, ИИ можно рассматривать как объект права.



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2022-01-19 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: