E-law в России: зачем роботам права и кто будет отвечать за их преступления

Роботы, заменяющие людей, давно не фантазия сценаристов научно-фантастических фильмов. Сильный искусственный интеллект (ИИ) становится лучше с каждым годом: тема перестала быть только интересом разработчиков. Задаваться вопросом об этическом отношении к роботам уже не смешно, но необходимо. В России уже есть несколько проектов, занимающихся робоправом. А предприниматели активно обсуждают создание специального закона о роботах. «Хайтек» рассказывает о том, как современные правовые системы отвечают на вопрос «Робот — тварь механическая или право имеет?» и кто будет нести ответственность, если механизмы и ИИ навредят человеку.

E-law в России: зачем роботам права и кто будет отвечать за их преступления

Представьте мир, в котором люди сосуществуют с системами, которые так же, как и мы, обладают разумом, мыслями, чувствами и самосознанием. У них есть желания и интенции, печали и радости. Нет только органических тел — это роботы, которых можно включать и выключать.

«Дивный новый мир» подкидывает этические головоломки. Как вести себя с роботами? Есть ли у нас моральный долг перед теми, кого мы создали? Может быть, прогресс вообще стоит остановить, пока искусственный интеллект не превзошел человеческий? Пока такие вопросы остаются лишь спекуляциями на тему, потому что реальных примеров разумных роботов у человечества пока нет.

То, что испытывают другие люди, остается недоказанной загадкой для наблюдателя: никто не может быть уверен в том, что его собеседник действительно мыслит точно так, как мыслит сам размышляющий. И все-таки в разумность других людей принято верить безоговорочно. Допустить, что у роботов есть глубокий эмоциональный интеллект, гораздо труднее.

Как поверить, что оно — человек?

Чтобы понять, можно ли принять конкретный ИИ за человека, его нужно тестировать с помощью теста Тьюринга. В 1950 году его создал пионер компьютерных технологий Алан Тьюринг. Речь не шла о действительной замене человека компьютером: ученого интересовал вопрос, может ли машина обладать видимым интеллектом.

В редакции Тьюринга тест выглядит как диалог между собеседниками, а его цель лишь ответить на единственный вопрос: «Является ли ваш собеседник человеком?». С компьютером общается один эксперт. На современных соревнованиях по ту сторону экрана располагается целая команда судей. Они определяют, говорят ли они с живым человеческим существом, исключительно благодаря его ответам на задаваемые вопросы. Кроме того, судьи параллельно общаются с настоящими людьми. Получается своеобразная игра в наперстки, в которой игроку нужно угадать, где «прячется» настоящий человек.

До недавнего времени у чат-ботов не получалось обмануть судей. Ситуация поменялась, когда российская программа, «мальчик» Eugene, наконец прошла тест. Это произошло на десятилетие позже, чем предполагал Тьюринг — вместо 50 лет компьютерам потребовалось 64 года. Надо сказать, что стопроцентно пройти тест не смогла ни одна машина. Более того, для победы требуется даже меньше, чем 50% голосов судей — всего 30%. Eugene показался человеком 33% экспертов. Разговор с людьми у него был коротким, всего пять минут на каждого человека. Правила, как можно заметить, далеки от строгих.


Стиль общения Жени Густмана (Eugene Goostman) далек от человеческого. Чат-бот притворяется 13-летним мальчиком из Одессы, который так или иначе способен отвечать на вопросы о своей личности, увлечениях и знаниях. Он не так умен, как мог бы — излишняя «начитанность» ИИ лишь рождает сомнения в экспертах. А еще он постоянно задает вопросы сам, помогая развитию диалога.


Не слишком строгий критерий вхождения в почетный класс «людей» не устроил ученого Хью Лебнера, которые предложил новый «золотой стандарт» теста Тьюринга в 1990 году. Новые правила требуют, чтобы человек и компьютер беседовали не менее 25 минут, при том долгий разговор чат-бот должен вести с каждым из четырех судей. Машина выигрывает, только если сможет обмануть хотя бы половину экспертов. Eugene такой тест пройти бы не смог.

Есть и другие, более сложные вариации теста Тьюринга. Например, ИИ может общаться с тремя судьями по два часа с каждым. Он должен убедить двух из трех экспертов. Футуролог Рэй Курцвейл и основатель компании программного обеспечения Lotus Митч Капор даже заключили пари на $20 тыс.: Курцвейл поставил на то, что хотя бы один робот сможет пройти такой жесткий тест Тьюринга до 2029 года. Ставка до сих пор в силе.

Может ли робот быть субъектом правоотношений?

Чат-боты, похожие на людей, еще не люди. Разработчики подобных программ считают, что «пишут не столько алгоритмы, сколько романы». Бихевиористическое подражание не обнаруживает настоящей мыслительной активности, креативности, ассоциирования и всего того, что присуще человеческому разуму и рассудку. В вопросе о правах роботов речь пока не идет о взаимной ответственности между субъектом и государством, а также другими участниками правоотношений. Право, регулирующее отношение к роботизированным системам, не может быть абсолютно человечным, а потому перед юристами появляется необходимость совершенно новых законов.


Правовые системы всех стран мира строятся на допущении о том, что права могут быть только у людей. Тут необходимо уточнение. Философы Нового времени развивали систему естественных и позитивных прав — неотчуждаемых от природы и создаваемых благодаря общественному договору. Наделяют правами только одни существа на планете — люди. Но тех, кого можно еще наделить, гораздо больше.


Сегодняшние дебаты вокруг прав роботов суммируются в книге профессора из Северного Иллинойса Дэвида Ганкеля. Она так и называется: Robot rights (с англ. «Права роботов» — «Хайтек»). Статус автономных машин, как утверждает ученый, постоянно меняется, потому что роботы представляются «серой зоной» между физическими лицами и объектами. Фактически мы уже живем в мире, который наводнен искусственными сущностями с правами и обязанностями «лица»: это и IBM, и Amazon, и McDonald’s. Они определенно не становятся людьми, но каким-то образом взаимодействуют с родом человеческим.


Фильмы вроде «Терминатора» и «2001: Космическая одиссея» убеждают зрителей в том, что роботы могут навредить людям. Конечно, и человечество способно дать машинам сдачи, хотя сюжетов, когда люди становятся агрессорами против роботов, практически нет. Тем не менее, Американское общество по предотвращению жестокого обращения с роботами (ASPCR) взяло за основу противоположную идею. Организация была основана в 1999 году, но до сих пор опережает время. Организаторы не считают, что делают что-то странное: «Неспособность признать права нечеловеческого ИИ и предоставить их ему аналогична неспособности колонизаторских западных культур признать гуманность и права неевропейских народов». Еще на сайте есть примечательная ремарка о том, что в 1890-х годах, когда было основано первое общество защиты животных, его миссия была также осмеяна.


ASPCR перестало существовать в 2016 году, но его основа, насколько бы шутливой она ни была, не исчезла. Европейский парламент считает, что идея о правах роботов заслуживает серьезного внимания. Доклад от 2016 года, составленный Мади Делво из Люксембурга, развивает вопрос о создании нового правового статуса — электронной личности, чтобы так обозначить ИИ и роботов. Быть электронной личностью — значит иметь обязанности и права.

Представим, что робот обманул человека и украл его деньги при транзакции. Доклад предлагает ответ на вопрос о том, кто должен нести ответственность в таком случае. Предложенное решение состоит в том, чтобы дать роботам юридическую ответственность. При этом создатели или владельцы роботов должны платить страховые взносы в государственные фонды, чтобы у электронных личностей была возможность покрыть расходы.

План основан на трех законах робототехники, которые изложил еще писатель-фантаст Айзек Азимов. Во-первых, робот не может причинять вред человеку. Во-вторых, робот должен подчиняться приказам человека, если это не ведет к причинению вреда другим людям. В-третьих, робот должен защищать собственное существование до тех пор, пока это не причиняет вред человеку. Наконец, Азимов добавил «нулевой», четвертый закон: робот не может навредить человечеству или бездействовать так, что в результате человечеству будет нанесен вред.


Сейчас необходимость разработки прав роботов кажется надуманной, но члены Европарламента пишут, что будущая возможная автономия ставит юридические вопросы уже сейчас. «В конечном счете существует вероятность того, что в течение нескольких десятилетий ИИ сможет превзойти интеллектуальные способности человека и, если система не будет подготовлена, поставить под угрозу человеческую способность контролировать собственное творение — и, следовательно, способность отвечать за свою судьбу и выживание вида», — говорится в докладе. Поэтому даже преждевременные меры задают поле для размышления.


В 2017 году появился еще один доклад EC, в котором, помимо прочего, были даны рекомендации от Комиссии по гражданско-правовым нормам в области робототехники. Он дополняет всё то же понятие об электронных личностях, которые могут нести ответственность за нанесение ущерба. Предполагается, что роботы соответствующего статуса могут принимать самостоятельные решения или взаимодействовать с третьими лицами, кроме своих создателей, самостоятельно.

Создание нового субъекта правоотношений, тем более такого необычного, может быть лазейкой для производителей, которые хотят уйти от ответственности за ущерб от роботов. Но роботы действительно берут на себя все больше повседневных задач, некоторые из которых бывают опасными для окружающих. И речь не о спецзаданиях. Например, дрон может нести коробку и случайно уронить ее на голову человека. В человеческом праве есть ответственность и за бездействие: может ли нести ее ИИ?

Что происходит с e-law в России?

Российская экономика отстает в роботизации, но зато российское право, напротив, принимает меры заранее. Так, еще в конце 2016 года российский предприниматель и основатель Grishin Robotics Дмитрий Гришин создал концепцию первого полноценного отдельного закона о робототехнике. Он работал в соавторстве с ИТ-юристом Виктором Наумовым.

«Робот — устройство, способное действовать, определять свои действия и оценивать их последствия на основе информации, поступающей из внешней среды, без полного контроля со стороны человека.« Статья 3 закона Дмитрия Гришина         

Концепция Гришина предлагает приравнять робота сразу и к животным, и к юридическим лицам. Хотя автономные машины и не имеют чувств, они могут действовать самостоятельно, а значит, попадают в зону действия понятия «ответственность». Впрочем, по-настоящему человеческую ответственность закон роботам не вменяет, зато говорит, что для них нужно создать отдельный реестр, похожий на реестр юридических лиц. У роботов могут быть производители и владельцы. Если робот изначально потенциально опасен, то ответственность за его деяния ложится на «хозяина», а если травму человеку причинит робот-пылесос, то платить придется производителю.


Кроме того, роботы могут стать субъектами уголовного права, но только в четырех случаях:

  • Робота создали для совершения противоправных действий.
  • Робота перепрограммировали для нанесения вреда человеку, отключив его блок, отвечающий за безопасность при общении с человеком.
  • Робота изначально создали без этого блока.
  • Робота сконструировали без осознания того, что его можно использовать во вред человеку.

Концепция Дмитрия Гришина основывается на четырех законах робототехники Айзека Азимова, которые, как считает предприниматель, до сих пор не потеряли актуальность. Также в интервью автор закона дает примеры роботов, для которых текст будет важен в первую очередь: беспилотные автомобили и дроны.

Кроме Гришина, робоправо в России развивает проект «#ПравоРоботов».Также созданный в конце 2016 году, проект направлен на совершенствование законов в области ИИ, оборота данных и кибербезопасности. Команда занимается широким спектром задач, с которым придется сталкиваться цифровой экономике, когда она будет построена.

Не все российские предприниматели настроены оптимистично. Гендиректор Alpha Robotic Venture Владимир Белый считает, что бессмысленно создавать отдельные законы для машины. По сути, они были и остаются инструментами, а за действие инструмента всегда отвечает тот, кто им управляет, производит.

Тем не менее, официальная власть держится курса на разработку полноценного законопроекта о робототехнике. Спикер Госдумы Вячеслав Володин заявлял, что подобный текст появится примерно в 2022 году. Больше ничего конкретного о робототехнике российская власть не говорила, а прогнозировать что-то в 2020-м особенно нелегко.

Автор: Анастасия Никушина
Источник: https://hightech.fm/2020/07/10/e-law-robot