[BLOCK] ИИ: Quo Vadis?

Content Team November 17, 2020
[BLOCK] ИИ: Quo Vadis?

Доктор Стефано Филлетти, руководитель отдела уголовного права Мальтийского университета, юрист и старший управляющий партнер Filletti & Filletti Advocates, рассказал Джереми Микаллеф о том, как должна проводиться судебная реформа, чтобы обеспечить будущее

Определение ИИ 

Искусственный интеллект – это сложный для определения термин, и нет единого общепринятого определения. Слово «искусственный» означает что-то созданное руками человека. Слово «интеллект» более абстрактно, и его труднее определить. Интеллект относится к способности развиваться и усовершенствоваться с течением времени в данной среде. Разумные существа не только адаптируются к окружающей среде, но и «учатся», чтобы стать более эффективными в том, что они делают. 

По словам известного британского физика Стивена Хокингса, «интеллект – это способность приспосабливаться к изменениям». Это определение обозначает врожденную способность любого разумного существа адаптироваться к изменяющимся обстоятельствам или окружающей среде. Эта способность к адаптации должна быть врожденной. 

Сопоставленный вместе термин «искусственный интеллект» будет относиться к искусственному объекту, способному автономно адаптироваться к изменениям, развиваться и усовершенствоваться. 

Искусственный интеллект действительно может быть чем угодно, от роботов до оружия, программного обеспечения на машине до виртуальных ботов в Интернете. 

A7B09818

Агентство по совершению преступлений 

Если под искусственным интеллектом понимается способность изменяться и развиваться автономно и независимо, было бы трудно предсказать, чему искусственный интеллект «учится» и как он адаптируется. У детей процесс «обучения» включает обучение на ошибках, в том числе потенциально опасных. Точно так же существа с искусственным интеллектом или системы ИИ будут «учиться» непредсказуемым образом. 

Нет никаких сомнений в том, что любое разумное существо, включая системы искусственного интеллекта, будет по-разному адаптироваться к различным ситуациям. Точно так же невозможно определить данные результаты и исходы в процессе адаптации.

Следовательно, если их не контролировать, системы ИИ потенциально могут совершать преступления. Например, системы искусственного интеллекта, оставленные без контроля в финансовых службах, могут вскоре узнать, что совершение финансовых преступлений может принести более высокую прибыль (хотя и незаконную), при этом они будут полагать, что они стали более эффективными в своей деятельности. Хотя этому примеру можно легко противодействовать, введя в систему ИИ параметры, требующие, чтобы она избегала незаконных транзакций, непредсказуемость адаптации означает, что с человеческой точки зрения невозможно предсказать какие-либо действия системы ИИ. Следовательно, на практике искусственный интеллект может совершать действия или транзакции, которые были бы преступными (если бы их совершали люди).

70540227_lЛюди против искусственного интеллекта: загадка уголовного права

Причина, по которой существует уголовное право, состоит в том, чтобы наказать тех, кто предпочел получить несправедливое преимущество в нарушение закона в ущерб законопослушным, или наказать тех, кто ведет себя предосудительно с юридической и моральной точек зрения. Уголовное право предполагает, что субъект уголовного права – это человек, обладающий моральной способностью определять, что является морально правильным, а что – неправильным. Это также предполагает, что субъект уголовного права обладает базовой способностью понимать свои действия и имеет волевую способность совершать или воздерживаться от совершения этих действий. Наконец, уголовное право имеет цель создать сдерживающий фактор: удерживать людей от преступного поведения из-за страха санкций или наказания.

Уголовное право со временем эволюционировало, создавая пространство для юридического лица компаний. Отсюда возникла концепция уголовной корпоративной ответственности. Это позволило распространить уголовное законодательство на бизнес компаний и корпоративную структуру, якобы для замораживания и конфискации активов и доходов от преступлений, являющихся собственностью компаний, а не физических лиц.

Однако уголовная корпоративная ответственность имеет ограниченный объем. Компания не может совершать все преступления, в которых может быть признан виновным человек. Уголовная корпоративная ответственность предназначена для финансовых преступлений в целом.

Системы искусственного интеллекта могут заниматься более опасной деятельностью, если их не контролировать. Тем не менее, искусственный интеллект и системы искусственного интеллекта бросают вызов  основам уголовного права. У искусственного интеллекта нет врожденного морального компаса и способности делать добро и зло, присущие людям. У него нет волевых способностей. Искусственный интеллект не «боится» наказания, и поэтому уголовное право не является сдерживающим фактором для искусственного интеллекта.

Дело в том, что уголовное право в его нынешнем состоянии не учитывает и, по большому счету, не может учитывать преступления, совершаемые искусственно разумными существами. Он может возлагать ответственность только на людей, владеющих ими или использующих их (ограниченно) за действия, совершаемые их искусственными существами. 

Права и обязанности 

Существа с искусственным интеллектом могут совершать противоправные действия по множеству причин. 

Во-первых это может быть ошибка при его программировании или изготовлении. Второй сценарий может заключаться в том, что пользователь вводит неправильный набор инструкций. Третья причина может заключаться в том, что любое лицо, отвечающее за надзор за системой ИИ, понимая, что что-то не так, не предпринимает соответствующих действий. 

Более сложный сценарий – это когда искусственное существо без вмешательства человека и без ответственного лица самостоятельно осуществляет непредвиденный и непредсказуемый образ действий, ведущий к преступным или трагическим результатам. Хотя это и редко, но это не только возможность, такое уже произошло. Несмотря на то, что прилагаются усилия для уменьшения фактора непредсказуемости, его нельзя исключать. Вопрос в том, как с этим справиться. Если будет доказано, что производитель и его пользователь выполнили все разумные испытания и приняли все разумные меры предосторожности, могут ли они нести ответственность за непредсказуемый и непредвиденный результат? Тем более, если система ИИ адаптируется и развивается сама по себе? 

Quo Vadis? Куда мы движемся? Текущее состояние уголовного права не предлагает решения. Понятно, что с дальнейшим развитием искусственного интеллекта эту проблему нужно решать. Необходимо разработать новый правовой режим, чтобы обслуживать нечеловеческих субъектов даже в области уголовного права. 

На верном пути 

Юридическая ответственность систем искусственного интеллекта – это вопрос, которым занимаются многие страны, а также предмет юридических дебатов на европейском уровне, как на уровне ЕС, так и Совета Европы. Можно выделить два различных потока между гражданской и уголовной ответственностью. С местной точки зрения, эта тема также активно обсуждается с местными властями, активно участвующими в дебатах. Однако только время покажет, будут ли системы ИИ адекватно регулироваться гражданским и уголовным законодательством или это неуловимый идеал, поскольку системы ИИ перехитрили закон. 

5й выпуск журнала Block:

The Block – это издание, выходящее два раза в год, освещающее передовые секторы ИИ, блокчейна, криптографии и новейших технологий, тираж которого составляет 5000 экземпляров, разосланных ведущим брендам по всей мировой индустрии. Ознакомьтесь с нашим последним выпуском the Block ниже.

Share it :