Главная страница
Навигация по странице:

  • Подытоживая всё и добавляя чуть-чуть нового. Какие вопросы имеются

  • Права ИИ. Права искусственного интеллекта


    Скачать 19.68 Kb.
    НазваниеПрава искусственного интеллекта
    Дата05.11.2021
    Размер19.68 Kb.
    Формат файлаdocx
    Имя файлаПрава ИИ.docx
    ТипДоклад
    #263900

    Права искусственного интеллекта

    Начнём мы наш доклад с утверждения, высказанного в научных кругах: если искусственный интеллект будущего оправдает ожидания, т.е. окажется мыслящим человекоподобным роботом, обладающим чувствами и эмоциями, то законы потребуется изменить для того, чтобы охватить роли роботов в обществе. Это означает, что понадобится пересмотреть существующую правовую систему и адаптировать её согласно изменяющимся потребностям общества. (Вопрос в зал: «Есть ли среди нас те, кто не согласен?». Если да, то: аргумент против: ИИ – не человек. Но и юр. лицо – не человек. Нет души, сознания, интенциональности, чувств, интересов. Душа – это теология, а не общественные интересы. Для права не годится. Сознание – мы сами не знаем, что это такое. Оно может появиться у ИИ. То же касается остального. Так как одним из требований к созданию сильного ИИ является дружественность человеку, вероятно, чувства тоже им организуют. ИИ продукт человека – он не может быть чем-то большим. Но давайте подумаем просто. Ок?) Согласно исследованию, приведённому Н. Бостромом в работе «Superintelligence: Paths, Dangers, Strategies.», искусственный интеллект уровня человека появится с 90% вероятностью к 2075 г. Учитывая скорость развития техноло-гий, можно предположить, что вслед за ним появится и ИИ, превосходящий уровень человека, который можно будет назвать действительно «сильным искусственным интеллектом» (SAI).

    Для адекватного правового регулирования в сфере искусственного интеллекта, хорошо бы использовать исчерпывающее определение искусственного интеллекта, которое соответствовало бы ряду принципов, а именно:

    • предполагаемое определение не должно содержать избыточного регулирования, то есть не затрагивать те общественные отношения, которые уже урегулированы, либо не относятся к вопросам искусственного интеллекта;

    • определение должно давать чёткое условие того, какой объект является искусственным интеллектом, а какой нет;

    • оно должно быть практико-ориентированным, то есть правоприменители должны иметь возможность определить относимость термина искусственный интеллект к конкретной правовой ситуации.

    Также, примечательным является такое свойство определения искусственного интеллекта, как «постоянство». (Его выделяет Jonas Schuett в своей работе «A Legal Definition of AI»). В данной работе, под постоянством подразумевается обязанность законодателей, не использовать в определении элементы, которые могут измениться в ближайшем будущем и потребуют внести поправки в законодательство.

    Что с документами сейчас? На данный момент Резолюция Европейского Парламента от 16 февраля 2017 г. (далее – Резолюция), является одним из передовых актов по регулированию искусственного интеллекта, так как содержит в себе комплексное правовое регулирование в различных сферах. В ней содержится и самое точное определение и много чего важного по остальным вопросам.

    Проанализируем, какие определения искусственного интеллекта используют мировые регуляторы в этой области.

    Резолюция Европейского Парламента от 16 февраля 2017 г. (далее – Резолюция), на данный момент является одним из передовых актов по регулированию искусственного интеллекта, так как содержит в себе комплексное правовое регулирование в различных сферах. Например, Резолюция закладывает принципы ответственности за действия ИИ, исходя из свойства его автономности. Поскольку, существующее законодательство не устанавливает ответственность робота за его действия, ответственность за их последствия ложится на контролирующего субъекта (его создателя, хозяина, оператора). Но, в случаях, когда робот автономен, существующих законодатель-ных механизмов недостаточно, чтобы определить сторону, виновную за причинение вреда. Определение ИИ, можно вывести из признаков «умного робота», описанных в п. 1 Раздела Общие принципы развития робототехники и искусственного интеллекта для гражданского использо-вания. К числу которых отнесены: а) получение автономности путём использования датчиков и/или обмена данными со средой, а также возможность обмена данными и анализ этих данных; б) незначительная физическая поддержка; в) приспосабливаемость своего поведения и действий к окружающей среде; г) отсутствие биологических признаков жизни. Следует отметить, что самообучаемость ИИ рассматривается как факультативный признак, поскольку для возникновения правовых последствий, ключевым является именно способность действовать.

    Указ Президента РФ от 10 октября 2019 г. N 490 «О развитии искусственного интеллекта в Российской Федерации» (далее – Указ) стал первым нормативным правовым актом, закладывающий основы правового регулирования искусственного интеллекта в России. П. «A» Ч. 5 данного Указа содержит в себе определение искусственного интеллекта, согласно которому: «искусственный интеллект – комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека». Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений. Как мы видим, способ-ность к самообучению является необходимым свойством, что существенно ограничивает круг технологий, которые в России можно признать ИИ. Необходимым качеством ИИ является его способность решать широкий круг задач, подобно человеку.

    Именно способность решать человеческие задачи, лежит в основе классификации искусственного интеллекта согласно концепции «Исследование, развитие и регулирование искусственного интеллекта», разработанной институтом инженеров электротехники и электроники (IEEE) США: «Искусственный интеллект (AI) - это теория и разработка компьютерных систем, способных выполнять задачи, которые обычно требуют человеческого интеллекта, такого как визуальное восприятие, распознавание речи, обучение, принятие решений и обработка естествен-ного языка».

    Но если мы проанализируем различные определения в правовых актах, то увидим, что единое понимание этого явления в разных странах ещё не сформировано. Однако, это не отменяет необходимости регулирования тех последствий, с которыми сопряжена деятельность агентов искусственного интеллекта. А именно вопросы ответственности (вот, например, серьёзная вещь для размышления. Хирург доверил какую-то работу ИИ, а тот ошибся, что повлекло проблемы со здоровьем пациента. Кто виноват? Как к этому относится?) (кто, в каких объёмах и на каких основаниях несёт ответственность за ущерб, причинённый ИИ), вопросы принадлежности результатов интеллектуальной деятельности, созданных ИИ. В связи с этим, возникает вопрос, о необходимости модернизации существующих правовых категорий под реалии повсеместного развития искусственного интеллекта. Учитывая темпы развития технологий искусственного интеллекта, перед государствами мира уже сейчас возникнет проблема законодательного регулирования его статуса.

    Вот, закономерный вопрос, можно ли провести аналогию между ИИ и иными «неживыми» объектами в вопросе их легализации? В некоторых системах права имеются примеры наделения правами объектов неживой природы. Так, в 2017 г. в Новой Зеландии статусом юридического лица наделили священную для народа маори реку «Уонгануи», поскольку, согласно их верованиям, она является предком этого народа. В Индии имеются судебные пре-цеденты, связанные с наделением идолов богов свойствами лица, правом собственности, а также обязанностью по уплате налогов. Наделение правовым статусом неодушевленных объектов, как правило, связанно с религиозными или культурными практиками отдельных групп, которые формируют правовую реальность конкретного социума. Из этого следует ряд характерных черт такой «традиционной субъективизации»: Во-первых, это локальность, поскольку каждая конкретная практика не выходит за пределы государства либо отдельного региона в государстве. Во-вторых, индивидуальность каждого случая, так как объем прав и обязанностей, само лицо, которое наделяется ими и правовые последствия для остальных лиц. В-третьих, ретроспективность таких действий, поскольку причина наделения неодушевлённого объекта статусом лица, исходит из прошлого опыта того общества, где такое решение было принято.

    Вопрос же со статусом ИИ имеет существенное отличие, так как искусственный интеллект не наследие прошлого, а предполагаемое творение будущего, чей правовой статус пытаются определить уже сейчас, ещё до его создания. Также предполагается что создание ИИ приведёт к его глобальному распространению, учитывая современные виды связи и сеть «Интернет», необходимость регулирования статуса ИИ, затронет все государства мира. Вот тут тоже есть такой вопрос. Если ИИ – глобальное явление, то может ли подход к ИИ создаваться в рамках одной страны или мировому сообществу следует вырабатывать этот подход, объединившись? Нам кажется, что общий подход здесь более уместен.

    Понятие «электронное лицо» впервые было употреблено в статье 1967 г. в американском журнале «LIFE» по отношению к первому роботу - Шейки, который имел способность рассуждения о своих действиях. Хоть Шейки внешне мало чем отличался от всех остальных роботов, он имел возможность не просто слепо следовать инструкциям и настройкам, а анализировать подаваемые ему команды. Позже данное понятие стало упо-требляться и в официальных документах, например, в упомянутой Резолюции Европарламента от 16 февраля 2017 г. Рассматривая вопрос о наделении электронного лица определённым правовым статусом, необходимо понять, какое место оно должно занимать в иерархии между дееспособным физическим лицом и вещью. Разрешение этой проблемы имеет огромное значение, ведь даже если говорить о правовом статусе человека на различных этапах истории, а в некоторых государствах и в настоящий момент, то нельзя не отметить, что объем прав и обязанностей для людей различных групп отличается. Например, согласно правовым нормам Саудовской Аравии, женщина обязательно должна иметь опекуна-мужчину (отец, брат, муж или дядя). Женщинам запрещается путешествовать в одиночку, проходить медицинские осмотры без разрешения опекуна, работать в некоторых отраслях и т.д. Таким образом, отметим, что если некоторые люди и сегодня не обладают полной дееспособностью в силу половой, расовой или иной дискриминации, то актуальным является вопрос о том, должно ли электронное лицо обладать дееспособностью, самостоятельно принимать решения и нести за них ответственность. Как мы уже размышляли на прошлом занятии, в настоящий момент невозможно наделить все устройства, имеющие ИИ, одинаковым объёмом правомочий, то есть для классификации в качестве «электронного лица», робот должен обладать определёнными свойствами. По мнению многих исследователей ключевым признаком является его автономность. Так, М. А. Filipe выделяет «автономию действий и формирование у машины субъективного опыта (переживаний)», как ключевой признак будущего электронного лица. Под автономией воли электронного лица стоит понимать способность самостоятельно принимать решения и реализовывать их без стороннего контроля. Если же говорить о субъективном опыте, то применительно к электронным лицам стоит понимать получение ими определенных навыков, умений, знаний посредством выполнения действий. Данный категории являются важной частью жизни человека, а также любого другого живого существа на нашей планете (животные, птицы и т.д.). Используя их применительно к электронному лицу, можно предположить, что роботы с ИИ смогут формировать определённое представление об окружающей действительности и о себе. По нашему мнению, именно за такими электронными лицами возможно закрепление особого правового статуса.

    Так какими же правами могут или должны обладать машины с ИИ? Возможно ли приравнять их к обычному человеку – гражданину той или иной страны? На сегодняшний день в мире уже существует робот, который официально имеет подданство Саудовской Аравии. Это созданная компанией Hanson Robotics гиноид (андроид, человекоподоб-ный робот, имеющий женскую внешность) по имени София. София оснащена ИИ, может общаться с людьми на заранее определенные темы, имитировать человеческие жесты, эмоции, а также, по словам создателей, она может анали-зировать проведенные разговоры, улучшая свои ответы в будущем. Конечно, София еще не может сравниться с настоящим человеком, но ее про-граммное обеспечение постоянно дорабатыва-ется, и в конечном счете компания Hanson Robotics надеется, что София сможет полноценно взаимо-действовать с людьми, приобрести необходимые социальные навыки. Получение подданства Софией активно освещалось в СМИ, а также привело к широкому обсуждению данного события в социальных сетях. Неудивительно, что такое событие породило больше вопросов, чем ответов. Если София является подданной Саудовской Аравии, то имеет ли она право голосовать, вступать в брак, нести установленную законом ответственность? Если Софию необходимо будет навсегда отключить, то можно ли считать такое действие убийством и понесет ли кто-либо за это ответственность? Одним словом, на современном этапе, нецелесообразно наделять электронных лиц всеми правами человека и гражданина, поскольку машины с ИИ ещё недостаточно совершенны и не могут технически обслуживать себя без вмешательства человека. А если роботы будут обладать, к примеру, правом на жизнь, личную неприкосновенность, на свободу передвижения, то через некоторые время они выйдут из строя. Да, и многие считают, что данный случай является эдаким «рекламным ходом», потому что, мы видим, реально юридически такое действие неразумно.

    Однако, стоит отметить, что некоторый объем прав роботам все же необходим. Так, например, есть мнение, что важно признать за ИИ авторские права, поскольку в настоящее время, для нас уже не является удивительным то, что роботы создают картины, сочиняют музыку и пишут стихи. Например, в 2016 г. компания Google провела аукцион, на котором были проданы 29 картин, созданных нейросетями.

    Необходимо заметить, авторскими правами могут обладать лишь те машины с ИИ, которые способны осознавать себя как собственника того или иного произведения, на основании полученного субъективного опыта. На сегодняшний день роботы, оснащённые ИИ, создающие произведения искусства, в понимании человека являются средством создания объекта авторских прав, однако бурное развитие инновационных технологий делает возможным, что в недалёком будущем машины с ИИ будут являться субъектом авторского права. Также нельзя не отметить вопросы ответственности электронного лица. За любое ли неправомерное поведение должен нести ответственность робот, обладающий ИИ? По нашему мнению, привлечение его любому виду ответственности возможно, но только в том случае, если неправомерное деяние не было связано с недостатками программирования ИИ, а робот допустил его вследствие самостоятельного осознанного решения. На данный момент эти вопросы не стоят так остро, поскольку нельзя сказать, что существует ИИ, полностью отвечающий требованиям автономности, однако через некоторое время, когда он появится, возникнет и потребность в пересмотре всех существующих «антропоцентричных» правовых систем.

    Однако, исследователи пока что даже не пришли к консенсусу относительно того, какого характера должно быть правовое регулирование искусственного интеллекта:

    1) упреждающее универсально-тотальное, либо

    2) направленное на регламентацию конкретных создаваемых систем искусственного интеллекта, в особенности — с учётом того, что эта область постоянно развивается и невозможно абсолютно точно знать, к чему приведёт это развитие через некоторое время.

    И тот, и тот подходы имеют свои + и -. Мы предлагаем вам подумать над этим вопросом.

    А сейчас просто интересной информации. Что касается разработки ИИ? Например, в разделе «Общие принципы» Введения к Резолюции Европейского Парламента вместе с рекомендациями Комиссии от 16 февраля 2017 г. «Нормы гражданского права о робототехнике» отмечено, что законы робото-техники, разработанные А. Азимовым должны соблюдаться. Что это за законы?

    • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

    • Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

    • Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

    Подытоживая всё и добавляя чуть-чуть нового. Какие вопросы имеются?

    Проблема определения ИИ в документах.

    Проблемы определения правосубъектности системы искусственного интеллекта, в частности — в каких ситуациях она может действовать в качестве посредника физического или юридического лица, заключать договоры

    Проблемы привлечения к гражданской и уголовной ответственности

    Проблемы разработки эффективной политики в сфере развития инноваций;

    А также из нового:

    Проблемы обеспечения конфиденциальности личной информации (поскольку личные данные индивида потенциально могут быть раскрыты через решения, принимаемые искусственным интеллектом);

    Проблема негативного влияния использования систем искусственного интеллекта на количество рабочих мест для людей

    Вывод: Требуется срочно развивать правовой подход в отношении систем ИИ.

    Однако, исследователи пока что даже не пришли к консенсусу относительно того, какого характера должно быть правовое регулирование искусственного интеллекта:

    1) упреждающее универсально-тотальное, либо

    2) направленное на регламентацию конкретных создаваемых систем искусственного интеллекта, в особенности — с учётом того, что эта область постоянно развивается и невозможно абсолютно точно знать, к чему приведёт это развитие через некоторое время.

    И тот, и тот подходы имеют свои + и -. Мы предлагаем вам подумать над этим вопросом.


    написать администратору сайта