2) оценка доказательств и установление юридически значимых обстоятельств по конкретному спору (например, отнесение сделки к категории крупных, определение срока исковой давности и так далее)15.
Конечно, речь здесь не может идти о замене судьи роботом. Ведь ИИ не может учесть всех обстоятельств дела. К примеру, он не сможет определить глубину нравственных страданий, причиненных потерпевшему при определении суммы компенсации морального вреда, реализовать принципы справедливости и гуманизма при назначении наказании, применять аналогию закона и аналогию права, что требует знания общих начал, смысла и духа законодательства. Также «важно учитывать, что оценку доказательств и принятие решений на основе внутреннего убеждения судьи нельзя полностью доверить искусственному интеллекту» 16 . Ведь внутреннее убеждение судьи не поддается алгоритмированию.
По мнению В. В. Момотова, «Система искусственного интеллекта никогда не сможет проникнуть в глубину человеческой психики, искусственный интеллект может оценивать обстоятельства дела только с точки зрения формальной логики, и именно поэтому он никогда до конца не сможет понять фабулу дела, так как во многих делах, например, семейных, и особенно уголовных, очень много иррационального, а не формально-логического»17. Это касается и отмены судебного акта, при вынесении которого судьей было допущено грубое нарушение законности, а не формальное нарушение, которое оказало влияние на исход дела.
При использовании ИИ могут возникать и иные проблемы, связанные с конфиденциальностью данных, надежностью автоматизированных систем. К примеру, в США выявлены дискриминационные последствия алгоритма, используемого в программном обеспечении, цель которого заключается в оценке риска рецидивизма, когда судья должен определить наказание для того или иного лица18.
__________________________
15 Андреев В. К., Лаптев В. А., Чуча С.Ю. Искусственный интеллект в системе электронного правосудия при рассмотрении корпоративных споров // Вестник Санкт-Петербургского университета. Право. 2020. № 1. С. 19-34. С. 22 https: //cyberlrainka.ru/article/n/iskusstvennyy-intellekt-v-sisteme-electronnogo-pravosudiya-pri-rassmotrenii-korporatibny-sporov
16 Там же.
17 Момотов Виктор: искусственный интеллект в суде не будет нейтрален к человеку // legal, report: сайт. - Режим доступа: https:/legal. report/viktor-momotov-iskusstvennyj-intellekt-v-sude-ne-budet-nejtralen-k-cheloveku/
18 Европейская этическая хартия об использовании искусственного интеллекта в судебных системах и окружающих их реалиях. Принята на 31-м пленарном заседании ЕКЭП (Страсбург, 3-4 декабря 2018 года) https://rm.coe.int/ru-ethical-charter-en-version-17-12-2018-mdl-06092019-2-/16809860f4
Применение ИИ в судах высвободило значительные человеческие ресурсы, минимизировало ошибки, помогает судьям в принятии решений, а гражданам упростило доступ к правосудию. В Казахстане элементы ИИ внедрены с 2022 года в сервис «Цифровая аналитика судебной практики». Кроме поиска по «ключевым словам», сервис выдает аналитику по ситуации. Программа обучена понимать суть судебных решений, сравнивать их между собой, выявлять аномалии и прогнозировать исход гражданского дела. И судья при поступлении иска видит судебную практику по схожим делам, вплоть до кассации. Однако решения всегда будут принимать сами судьи: ИИ не заменяет судей: он значительно упрощает решение их рутинных задач. Анализ ИИ может использоваться только как дополнительный справочный материал19.
В целях обеспечения доступности, удаленного участия граждан судопроизводстве в электронном формате на официальном сайте Верховного Суда РК действует сервис «Судебный кабинет». Участники судопроизводства могут использовать сервисы «Судебного кабинета» пройти процедуру регистрации в «Судебном кабинете» посредством электронной цифровой подписи Национального удостоверяющего центра. Посредством этих сервисов гражданин или его представитель, либо адвокат может отправить обращение или заявление в электронном формате, оплатить государственную пошлину, ознакомиться с материалами дела до вынесения окончательного решения.
Важным достижением в этом направлении является роботизация процесса санкционирования постановлений частных судебных исполнителей об ограничении выезда за рубеж и формирование судебных приказов о взыскании алиментов. В 2022-м робот зарегистрировал 151 тыс. материалов о санкционировании постановлений судебных исполнителей об ограничении выезда за рубеж из поступивших 156 тыс., отклонено 4,7 тыс., санкционировано судьей 126 тыс. материалов. Робот формирует и судебные приказы о взыскании алиментов на несовершеннолетних детей: с марта 2022-го зарегистрировал более 8 тыс. заявлений20.
Как показывает анализ опыта применения технологий ИИ в судопроизводстве зарубежных стран, в ряде стран (Китай, Франция, Нидерланды, Аргентина, Эстония) уже ведется активная работа по внедрению в судопроизводстве робота-судьи. К примеру, в Китае так называемый умный суд, созданный в 2017 году в городе Ханчжоу, автоматически проверяет несложные дела, связанные в основном с электронной торговлей и платежами, рекомендует законодательство, подлежащее применению, составляет проекты решений, а также исправляет возможные ошибки судьи. Однако не все решения, вынесенные роботом-судьей, утверждаются судьей-человеком. При рассмотрении дел используются нейросети, блокчейн, большие данные и облачные технологии.
В Аргентине судьями утверждаются почти все оформленные роботами-судьями судебные решения по ряду категорий гражданских и административных дел. Во Франции действуют специальные программы, способные выносить проекты судебных решений по административным и гражданским делам, кроме уголовных. В Российской Федерации ведется разработка программы суперсервиса «Правосудие онлайн», который позволит применять автоматизированное составление проектов судебных актов с использованием технологий ИИ на основе анализа текста процессуального обращения и материалов судебного дела.
__________________________
19 «Судьям Казахстана помогает искусственный интеллект», «Право.ru», 23.02.2023 г. https://sud.gov.kz/rus/massmedia/sudyam-kazahstana-pomogaet-iskusstvennyy-intellekt-pravoru-23022023-g
20 Там же.
В Сингапуре суды тестируют ИИ при рассмотрении мелких споров (бракоразводных и гражданских споров). Предполагается, что алгоритмы ИИ будут отвечать на вопросы сторон разбирательств на основе предварительно загруженных данных. Это должно помочь гражданам, которые защищают свои интересы самостоятельно. Например, перед подачей иска о выплате компенсации за неисправную технику истец сможет уточнить у ИИ ряд вопросов:
• какие у него есть права как у потребителя;
• какие предельные сроки он должен учесть;
• на выплату каких сумм можно рассчитывать при подаче иска;
• сколько составят судебные издержки;
• какие документы нужно подготовить перед подачей иска;
• куда подавать иск;
• какие интернет-сайты могут пригодиться в подготовке;
• где можно найти необходимые формы документов21.
Таким образом, создание и применение под контролем роботов-судей и автоматизированных систем в судебной деятельности может иметь значительные перспективы для повышения качества правосудия. К преимуществам применения технологий ИИ в судопроизводстве может отнести: объективность в принятии решений; отсутствие влияния эмоций, предвзятости, усталости, коррупционных рисков; прозрачность судебного процесса; точность при расчетах, быстрый поиск информации в электронных информационно-справочных системах, отсутствие грамматических ошибок. Все это, несомненно повысит эффективность работы суда. Вместе с тем необходима разработка правил по применению ИИ в судебной работе.
В 2018 году в г. Страсбурге на заседании Европейской Комиссии по эффективности правосудия была принята Европейская этическая хартия об использовании искусственного интеллекта в судебных системах и окружающих их реалиях22. Хартия содержит 5 принципов использования ИИ в судебной деятельности:
1) соблюдения основных прав: обеспечить разработку и применение инструментов и услуг, основанных на искусственном интеллекте, соответствующих основным правам;
2) недискриминации: а именно, предупреждать развитие или усиление дискриминации между отдельными лицами или группами лиц;
___________________________
21 Будущее судопроизводства: искусственный интеллект на страже правосудия https://rasability.ru/articles/buduschee-sudoproizvodstva-iskusstvennii-intellekt-na-strazhe-pravosudiya/6636a5b7e9ed670e80118ае8
22 Европейская этическая хартия об использовании искусственного интеллекта в судебных системах и окружающих их реалиях. Принята на 31-м пленарном заседании ЕКЭП (Страсбург, 3-4 декабря 2018 года) https://rm.coe.int/ru-ethical-charter-en-version-17-12-2018-mdl-06092019-2-/16809860f4
3) качества и безопасности: касательно обработки судебных решений и данных, использовать сертифицированные источники и нематериальные данные с применением моделей, разработанных на междисциплинарной основе, в безопасной технологической среде;
4) прозрачности, беспристрастности и достоверности: сделать доступными и понятными методы обработки данных, разрешить проведение внешнего аудита;
5) контроля пользователем: отказаться от предписывающего подхода и позволить пользователю выступать информированным участником и контролировать свой выбор.
Подводя итог, стоит отметить, что ИИ нужно рассматривать, как уже неотъемлемый элемент законотворческой и правоприменительной деятельности. Но при этом не стоит умалять значение человеческого потенциала, который по-прежнему безграничен.
ВОПРОСЫ НРАВСТВЕННОСТИ И ПРАВОСУБЪЕКТНОСТИ В РАЗВИТИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Алиев Ильхам Малик оглы
Исследователь отдела Правовых исследований
Института Права и Прав Человека,
доктор философии по праву, доцент
В современный период происходят значимые интенсивные модификации, связанные с объективным участием робототехники в экономике и ориентированные на внедрение искусственного интеллекта в общественную жизнь. Однако мировое сообщество только начинает осознавать реальные и потенциальные нюансы влияния полностью автоматизированных систем на жизненно важные области социальных отношений, на рост связанных с данной тенденцией этических, социальных и правовых проблем. При этом общемировой сегодня является проблема практически полного отсутствия нормативного правового регулирования и нормативного технического регулирования основ, условий и особенностей разработки, запуска в работу, функционирования и деятельности, интеграции в другие системы и контроля применения технологий искусственного интеллекта. Лишь отдельные государства понемногу начинают заполнять нормативным материалом отдельные пустоты этого, в целом пробельного поля, но рассматриваемая проблема не связана рамками национального государства. Поэтому и стандартизация в этой сфере должна быть осуществлена, прежде всего, на глобальном уровне.
Основная сложность разработки точного и универсального определения понятия искусственного интеллекта (ИИ) усугубляется тем, что отсутствует универсальное понимание того, что представляет собой интеллект вообще. Как отмечает О.В. Панов, искусственный интеллект создаётся «по образу и подобию естественного интеллекта» (1,108). Вопрос дефиниции понятия «искусственный интеллект», как обоснованно утверждает Джордж Люгер, сводится к вопросу общего определения понятия «интеллект» (2,27.). При этом важно отметить, что заставить компьютеры (вычислительные машины) быть разумными - это, по словам Патрика Генри Уинстона, далеко не то же самое, что заставить вычислительные машины моделировать интеллект (3, 14). В свою очередь, Ник Бостром отмечает, что и понятие «качество интеллекта» является весьма размытым (4, 103).
По мнению некоторых авторов, разработка искусственного интеллекта и его использование для уяснения центральных вопросов и возможностей естественного интеллекта представляет собой существенное дополнение к традиционным методам психологии, философии и лингвистики, то есть понимание искусственного интеллекта - это, не в последнюю очередь, путь изучения интеллекта естественного. Поэтому ряд психологов работает в сфере искусственного интеллекта в силу своего стремления лучше понять природу и процессы мышления человека в части обработки информации (3, 13,24). Подходы к определению понятия «искусственный интеллект», основанные на человеческом мышлении и поведении, отчасти являются эмпирическими, поскольку в их рамках осуществляются наблюдения за человеческим поведением. Человек является самым сложным из доступных для нашего восприятия объектов, а способность мышления - его главным свойством (5, 6). И на сегодняшний день человеческий интеллект не имеет аналогов в биологическом мире и, тем более, искусственном мире, так как обладает целым рядом уникальных способностей, что делает выбор именно его для определения прогресса искусственного интеллекта вполне обоснованным и логичным. При этом, в лице человека мы имеем дело с наиболее «чёрным» из «чёрных ящиков» (6, 660).
Устоявшегося общепризнанного определения понятия «искусственный интеллект» сегодня не существует. Согласно авторскому определению И.В. Понкина и А.И. Редкиной, искусственный интеллект - это искусственная сложная кибернетическая компьютерно-программно-аппаратная система (электронная, в том числе - виртуальная, электронно-механическая, биоэлектронно-механическая или гибридная) с когнитивно-функциональной архитектурой и собственными или релевантно-доступными (приданными) вычислительными мощностями необходимых ёмкостей и быстродействия (7, 94).
С правовой точки зрения статус искусственного интеллекта пока не определен, а, следовательно, не определена и принадлежность произведенного им продукта, а главное - ответственность за решения, принятые с его использованием. И эта проблема стоит не только в Азербайджане, но и во всем мире. Стоит отдельно отметить, что в связи со вступлением Азербайджана в Совет Европы и ратификацией Конвенции о защите прав человека и основных свобод, возлагающей на Азербайджанскую Республику соответствующие международно-правовые обязательства, стали активно обсуждаться проблемы обеспечения доступности правосудия в нашей стране.
Обеспечение конституционного принципа доступа к правосудию в настоящий момент невозможно представить без использования интернет-технологий. Формирование новых инструментов с использованием интернет-связи в обеспечении судопроизводства способствует успешной реализации принципа обеспечения права граждан на судебную защиту. В опубликованном отчете вышеуказанной Комиссии Совета Европы по эффективности правосудия (CEPEJ) отмечается, что в Азербайджане предпринимаются очень активные усилия по повышению профессионализма по электронному управлению судами (8, 235). Так, недавно группа сотрудников Рабочей группы по созданию информационной системы «Электронный суд» в Азербайджанской Республике, работающих под руководством вице-президента Комиссии Совета Европы по эффективности правосудия (CEPEJ), и одновременно судьи Бакинского Апелляционного суда - Рамина Гурбанова, кардинально сменили всю компьютерную систему Бакинского Военного Суда. Все эти действия совершаются согласно Распоряжению главы государства, Президента Азербайджанской Республики Ильхама Алиева от 13 февраля 2014 года «О создании информационной системы «Электронный суд», которое определило стратегические приоритеты в этой сфере. Человечество делает первые шаги в том, чтобы поручить ИИ разрешение споров и конфликтов между людьми, фактически заменяя машиной судебную систему, государственный аппарат. Казалось бы, полная автоматизация всех чиновников и переход на электронное правительство, внедрение цифрового судопроизводства - не это ли является панацеей от набившей всем оскомину коррупции? Но самая большая проблема заключается в том, что философия, а в нашем случае этика и мораль - не успевают за невероятной скоростью технического прогресса, который мы наблюдаем последние 80 лет. Мораль - это принятые в обществе представления о хорошем и плохом, а также совокупность норм поведения, из них вытекающих. Нормы морали трансформируются в нормы права, приобретая четкую формализацию и защиту со стороны государства.
Законодательство в области охраны здоровья граждан относится к отрасли охранительного права. Социальный порядок в обществе обеспечивается нормативными актами правом вкупе с моралью, однако эта цель достигается ими различно. Связь людей в правовых отношениях выражается через субъективные права и юридические обязанности; в свою очередь, моральные имплементы коммуницируют посредством сострадания, взаимопомощи, солидарности, милосердия. Очевидно, и вполне объяснимо, что основные векторы действия в области биоэтики формируется на основе морали. Однако мораль от права отличается тем, что она сложно поддается типизации, формализации, институционализации и не несет характерной определенности. Общественное сознание более устойчиво к восприятию моральных оценок, нежели нормативно-правовых. Медицинские направления ИИ традиционно более подвержены этико-нравственным суждениям, нежели юридическим установлениям, поскольку в обществе все еще преобладает правовой нигилизм. Традиции в медицине и деонтологии формировались тысячелетиями, тогда как право в области здоровья человека реализуется лишь в последние века. Этот фактор является предпочтительно решающим в формировании мировоззрения общества в пользу морали (9, 13-23). В медицинском праве, когда говорится об ответственности искусственного интеллекта, многие врачи и юристы опасаются, что будет причинен вред здоровью. Какая в таком случае будет гражданско-правовая ответственность? В настоящий момент по действующему законодательству в случае причинения вреда здоровью ответственность несет медицинское учреждение. Поэтому по общим правилам, которые есть сейчас, в случае причинения вреда здоровью со стороны искусственного интеллекта, ответственность будет нести учреждение, где этот робот находится.
Другой вопрос, что делать, если робот привозной, запрограммированный в другом месте, а учреждение его лишь арендует? Такое явление распространено, например, в Великобритании, где очень активно распространяется применение искусственного интеллекта в хирургии с осуществлением типовых операций по поводу лечения некоторых раковых опухолей. Конечно, здесь возникает вопрос: каким образом будет регулироваться ответственность, будет ли отвечать собственник или арендодатель? В данном случае все зависит от условий договора - каждый случай рассматривается отдельно. Отдельно, как субъект права, робот пока не признается, но именно в этих положениях с учетом общих принципов гражданского права и с позиции медицинского законодательства такой вид ответственности в случае причинения вреда здоровью будет применен. Другие риски, которые, возможно, будут не такие глобальные, как привлечение к ответственности, потому что это наболевший вопрос у врачей даже без использования искусственного интеллекта. Рентгенологи начали опасаться, что вообще исчезнет их специальность, подобные опасения озвучивают и другие специалисты. Изначально, когда только начиналось обсуждение перспективы внедрения искусственного интеллекта, многие говорили о том, что без человека обойтись не удастся и врач всегда будет востребован.
Особенно остро рассматриваемый вопрос стоит в отношении экспертных технологий искусственного интеллекта, которые используются в медицине. Поскольку ежегодно в публикацию выходит огромное количество работ по медицине, практикующие врачи не могут освоить их все, в то время как современный уровень интеллектуальных систем позволяет с помощью алгоритмов ставить наиболее вероятные, с точки зрения накопленной и опубликованной человечеством информации, диагнозы и прописывать наиболее эффективное лечение. Но несет ли врач, пользующийся такой системой ответственность за неправильно назначенное лечение? С одной стороны, в отличие от искусственного интеллекта, он взаимодействует с пациентом и может оценить, будет ли лечение, назначенное экспертной системой, правильным, а также оценить правильность диагноза с точки зрения своего опыта, ведь любая машина может сломаться. С другой стороны, в случаях с тяжелобольными, возможность переложить ответственность за диагноз может быть позитивным решением для врача. Конечно же, в случае неверного диагноза ответственность ляжет и на конструктора искусственного интеллекта, ведь именно он выбирает архитектуру искусственного интеллекта и должен предугадать, если не все, то все наиболее вероятные варианты, предусмотреть, где в системе может произойти сбой из-за противоречивых данных или слишком большого объема информации. Это наиболее яркая, но далеко не единственная проблема, затрагивающая вопрос приписывания ответственности в искусственного интеллекта. Что касается самой экспертной системой, как мы увидели при анализе проблемы свободы и детерминизма, только сознательный субъект может быть предметом ответственности, а, поскольку слабые системы не обладают автономией, на них нельзя возложить ответственность.
«Автономность» ИИ-систем - фикция. Человек не может быть свободен от ответственности за то, что сделала построенная им машина. Сам термин «автономность» в философии обозначает способность людей принимать нормы, правила поведения, законы. В этически значимом смысле он неприменим к машинам. Псевдоинтеллектуальное поведение машин, внешне неотличимое от человеческого, позволяет «включить» ИИ для манипулирования большими массами людей. Это безнравственно: машина не может управлять человеком. Рекомендации Еврокомиссии, содержащиеся в «Заявлении об искусственном интеллекте, робототехнике и автономных системах», лежат исключительно в гуманитарной области. Таким образом, европейцы не игнорируют этические (моральные) проблемы ИИ, напротив, они официально объявляют о намерении их решать. Европейское «Заявление об искусственном интеллекте, робототехнике и автономных системах» официально провозглашает: важны не столько технические задачи (делать компьютеры быстрее, лучше, дешевле), сколько гуманитарные проблемы, которые программистам не под силу и для решения, которых надо звать, как это ни противно, гуманитариев, а то и политиков. Кроме того, в марте этого 2024-го года Европарламент утвердили первый в мировой практике закон о регулировании искусственного интеллекта (ИИ), который был согласован еще в декабре прошлого года. Документ, за принятие которого проголосовали 523 депутата из 618, запрещает неприемлемые способы использования нейросетей.
Если подходить к вопросу формально, искусственный интеллект - это всего лишь усложненная компьютерная программа. В Азербайджанской Республике существуют такие объекты в интеллектуальной собственности, как программы для ЭВМ и базы данных, которые регулируются гражданским законодательством. Распространяющиеся, постоянно уплотняющиеся компьютерные сети, аккумулированные воедино, отражают то, что мы начинаем понимать, как энергетический потенциал глобальной коммуникационной сети, включающий в том числе Интернет, сетевую валюту вроде биткоина и т.д. Энергия данной сети представляет собой исторически новый потенциально всеобъемлющий охват социальной действительности. Таким образом, в эпоху глобальной коммуникации цифровая активность субъектов права становится практически непрерывной, более того, формирующиеся решения, базирующиеся на коммуникационной сети, могут влиять и на психоэмоциональное состояние человека. Можно предположить, что в следующем десятилетии в самых развитых странах мира все - от самоуправляемых автомобилей до военных роботов - станет обычным явлением. Открытым остается вопрос о том, кто непосредственно будет нести ответственность за реализованное в жизни неправильное решение, предложенное «искусственным интеллектом», и как регулировать возможности и степень ответственности роботов (искусственный интеллект), и их создателей (10, 321).
В ЕС первым шагом в направлении регулирования вопросов искусственного интеллекта стала Резолюция Европейского Парламента 2017 года под названием «Нормы гражданского права о робототехнике». Ещё в 2015 г. в Европейском Парламенте была создана рабочая группа по правовым вопросам, связанным с развитием робототехники и искусственного интеллекта в ЕС. Резолюция не является обязательным документом, но дает ряд рекомендаций Европейской Комиссии для возможных действий в этом направлении, причём не только касательно норм гражданского права, но и этических аспектов робототехники.
Резолюция определяет «умного робота» как робота, получающего автономию через использование сенсоров и (или) взаимосвязь с окружающей средой; при этом, робот имеет по меньшей мере минимальную физическую поддержку, адаптирует своё поведение и действия в соответствии с условиями среды, и у него отсутствует жизнь с биологической точки зрения. Предлагается создать систему регистрации продвинутых роботов, которая управлялась бы Агентством ЕС по робототехнике и искусственному интеллекту. Данное агентство также предоставляло бы техническую, этическую и регулятивную экспертизу по робототехнике. В 2017-ом году Институт Ратенау опубликовал доклад «Права человека в Эпоху Робототехники», выполнив поручение данное Парламентской ассамблеей Совета Европы (ПАСЕ). В отчете отмечается, что робот может оказывать ряд неблагоприятных воздействий связанных с правами человека, на уважение личной жизни, а также на человеческое достоинство, собственность, безопасность и ответственность, свободу слова, запрет дискриминации, справедливость и правосудие. Например, в Европейском Союзе была распространена Декларация Искусственного Интеллекта Халдана для разработки совместной политики по этому вопросу, и было решено в 2019 году опубликовать и распространить издание руководства по этике искусственного интеллекта (11, 64).
Остроту проблеме придают и споры о возможности признания, либо непризнания искусственного интеллекта личностью. Ряд исследователей занимает следующую позицию: если прогресс электронных систем пойдет по предсказываемому пути развития, то технику можно будет охарактеризовать как мыслящего человекоподобного робота, что неминуемо повлечет изменение законов, для того чтобы охватить роль подобных систем в обществе. Они полагают, что правовой статус электронной системы с элементами искусственного интеллекта и совершенного автономного робота не может быть одинаковым. Последнего, по их мнению, можно без лишних колебаний признать полноценным киберсубъектом общества, но с той оговоркой, что подобный статус будет иметь различные по спектру прав и ответственности варианты, поскольку поставить в один ряд банкомат, систему «умный дом» и боевого робота не представляется возможным. Из этого ими делается вывод, что системы с искусственным интеллектом должны обладать определенным правовым статусом, который будет зависеть от функционала и иных особенностей конкретной системы (12, 200).
Глава совета директоров российской компании Mail.ru и основатель компании Grishin Robotics Д. Гришин в 2016 г. представил общественности концепцию закона о робототехнике, правовое положение искусственного интеллекта в которой сходно с правовым положением животных. По его мнению, роботы не могут быть субъектами права ввиду отсутствия эмоций, однако они способны осуществлять автономные действия, как те же животные, и поэтому должны быть юридическими объектами и могут быть наделены правосубъектностью. Кроме того, по его мнению, принципиально необходимым является установление ответственности разработчиков робототехники, которая может причинить ущерб людям, а также создание единого международного реестра роботов (13).
Дабы обнаружить предпосылки к наделению искусственного интеллекта правосубъектностью, ряд исследователей обращается к «Чистому учению о праве» Г. Кельзена, по которому субъект права выступает как индивидуализированное единство совокупности правовых норм, устанавливающих юридические обязанности и субъективные права, имеющие своим содержанием определенное поведение. Субъект права - не природная реальность, а конструкция, создаваемая для описания юридически значимых фактических составов (14, 212-219). В этой связи, по их мнению, появляется возможность сформулировать понятие «электронное лицо» и в дальнейшем рассматривать его как субъект права, поскольку последнее является по существу совокупностью юридических обязанностей и прав, содержанием которых могут признаваться и действия искусственного интеллекта. Такой подход дает возможность определять «электронное лицо» как носителя искусственного интеллекта (будь то машина, робот, программа), обладающего разумом, аналогичным человеческому, способностью принимать осознанные и не основанные на заложенном создателем такой машины, робота, программы алгоритме решения и в силу этого наделенного определенными правами и обязанностями (12, 202).
В юриспруденции правосубъектность определяет то, что важно для общества, и позволяет решить, является ли «что-то» ценным и надлежащим объектом для обладания правами и обязанностями. Поэтому мы не можем, не отметить, что американским профессором Л. Соулумом уже были сформулированы тезисы, доказывающие правовую необоснованность признания того, что искусственный интеллект обладает статусом личности (7, 96). Он полагает, что электронные системы, и даже системы с полным искусственным интеллектом, не могут рассматриваться в качестве аналогичных или тождественных людям сущностей. А также как пример приводит 14-ю поправку к Конституции США, согласно которой все личности, рожденные или натурализованные в Соединенных Штатах, будучи субъектами юрисдикции таковых, являются гражданами Соединенных Штатов. Таким образом, только люди могут рождаться, следовательно, искусственный интеллект не может обладать правами граждан. Мы полностью солидарны с таким мнением, поскольку сами полагаем, что искусственный интеллект не является носителем критически важных составляющих личности. Он лишен таких элементов, как душа, полностью свободное сознание, чувства, интенциональность и личные интересы (7, 97).
При всем своем развитии и скорости обработки информации, в разы превосходящей даже потенциальные возможности человека, искусственный интеллект остается программой с привязанным к ней материально-техническим обеспечением. Только человек ответствен за действия механизмов, подвергается проверке на прочность (15, 162). Что же касается непосредственной ответственности искусственного интеллекта, то в нынешних правовых и социальных условиях вопрос о его гипотетической ответственности, носит тупиковый характер, поскольку меры юридической ответственности просто неприменимы к нему, например, элементарно невозможности искусственного интеллекта осознавать последствия своих вредных действий. Правовой аргумент может быть таковым: даже если искусственный интеллект может симулировать человеческий интеллект, он не будет обладать самосознанием, и, следовательно, искусственный интеллект никоим образом не может претендовать на особые фундаментальные права.
Этика, мораль, нравственность служат ориентирами для тех, кто разрабатывает и принимает законы, а закон хорош в той мере, в какой он принуждает к соблюдению нравственных норм. Можно вспомнить практику того, как удавалось в суде выигрывать очевидно безнадёжные дела, апеллируя не к закону, а непосредственно к нравственным нормам. Поэтому подход ЕС к регулированию ИИ-технологий с позиций морали вызывает уважение. Пересмотр принципа «человек есть мера вещей» только потому, что появились вещи, внешне похожие на человека - в частности, способные пройти «тест Тьюринга» - означал бы скорое перерождение, а то и вырождение человечества. Риски использования ИИ, как и всякой выдающейся технологии, значительны, однако соблазнительное представление о том, будто ответственность за эти риски лежит не на человеке, что ИИ есть стихия, порождённая человеком, но неуправляемая им - аморально.
Список использованных источников:
1. Панов О.В. Функциональная структура бессознательного и возможность формирования новых принципов искусственного интеллекта // Искусственный интеллект: междисциплинарный подход / Под ред. Д.И. Дубровского и В.А. Лекторского - М.: ИИнтеЛЛ, 2006, с. 107-110
2. Люгер Дж.Ф. Искусственный интеллект: Стратегии и методы решения сложных проблем: Пер. с англ. 4-е изд. - М.: Вильяме, 2003, 864 с.
3. Уинстон П.Г. Искусственный интеллект: Пер. с англ. В.Л. Стефанюка; под ред. Д.А. Поспелова. М.: Мир, 1980, 520 с.
4. Востром Н. Искусственный интеллект: Этапы. Угрозы. Стратегии: Пер. с англ. - М.: Манн, Иванов и Фербер, 2016
5. Ясницкий Л.Н. Введение в искусственный интеллект: Учеб. пособие. 2-е изд., испр. М.: Академия, 2008,176 с.
6. Понкин И.В. Теория публичного управления: Учебник для магистратуры и программ Master of Public Administration / Предисловие А.Б. Зеленцова / Институт государственной службы и управления РАНХиГС при Президенте РФ. М.: Буки Веди, 2017, 728 с.
7. Понкин И.В., Редькина А.И. Вестник РУДН. Серия: Юридические науки. 2018. Т. 22. № 1.91-109
8. Ж-П. Жан, Р.А. Гурбанов. Европейская Комиссия по эффективности правосудия, Москва: Юнити-Дана, 2015, 331с. (на азербайджанском языке)
9. Фролова Е. Право и мораль (проблемы теории и философии права). МГУ, сборник материалов международной секции «Теория и практика современной юридической науки». Эл. ресурс: https://izron.ru/articles/teoriya-i-praktika-sovremennoy-yuridicheskoy; «Государство и право». 2013, № 1. с. 13-23
10. Ястребов О.А. Вестник РУДН. Серия: Юридические науки. 2018. Т. 22. № 3.315-328
11. Aşçioğlu Öz, Gamze. Yeni dünyanin yeni hukuku.ÖDTÜLÜ. Ocak-Haziran 2018. (на турецком языке)
12. B.A. Шестак, А.Г. Волеводз. Всероссийский криминологический журнал. 2019. Т. 13, № 2, с. 197-206
13. Гришин Д. Закон о робототехнике [Электронный ресурс] / Д. Гришин; интервьюер А. Плющеев. - Режим доступа: https://echo.msk.ru/ programs/tochka/1893198-echo.
14. Кельзен Г. Чистое учение о праве / Г. Кельзен. 2-е изд. - СПб.: Алеф-Пресс, 2015, 542 с.
15. Алиев И.М., Рустамзаде А.Х. Рассмотрение искусственного интеллекта через призму правосубъектности. Украина, Ужгород, Науковий вісник ужгородського національного університету, серія Право. № 63, 2021
О НЕОБХОДИМОСТИ УЧЕТА ПОЛИТЭКОНОМИЧЕСКИХ АСПЕКТОВ В ПРАВОВОМ РЕГУЛИРОВАНИИ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В КАЗАХСТАНЕ
Қурманғали Медеу Шунгенулы
Профессор Школы права и государственного управления,
к.ю.н., НАО «Университет Нархоз»
1. Развитие технологий приводит к усилению борьбы за власть между государствами и корпорациями. Развитие технологии создало ситуацию, в которой очень многие атрибуты индустриальной эпохи - и экономические, и политические - оказываются ненужными. Помимо массового рабочего и среднего классов, в эти «ненужные» атрибуты попадает и государство, которое было интегратором промышленных структур, среднего и рабочего классов в мировую систему и, в той или иной степени, их защитником в этой мировой системе, защитником их интересов. Оперативная зона государства также сократилась в результате давления надгосударственных структур: транснациональных корпораций (ТНК), структур типа Европейского союза (ЕС) и макрорегиональных структур, с другой стороны - организаций локально-регионального уровня. Таким образом, по всему миру начался процесс, который на Западе называют «исчезновением государства» (Fading Away of the State). Это означает, что различные политические и экономические силы приватизируют власть. Государство не является больше единственным монополистом в этой области [1].