Введите номер документа
Прайс-лист

Законопроект об искусственном интеллекте: полнота регулирования и соответствие международным стандартам (Ижбулатов Дмитрий Борисович, м.ю.н.)

Скачать в Word

Скачать документ в формате .docx

Информация о документе
Датавторник, 7 октября 2025
Статус
Частично утратил силу

07.10.2025

Законопроект об искусственном интеллекте: полнота регулирования и соответствие международным стандартам

 

Ижбулатов Дмитрий Борисович, м.ю.н.

 

24 сентября 2025 года на рассмотрение Сената Парламента Республики Казахстан внесен проект Закона «Об искусственном интеллекте». Развитие технологий искусственного интеллекта (далее - ИИ) становится ключевым фактором трансформации современного общества и экономики. Для Казахстана указанный законопроект это первая попытка системного регулирования данной сферы.

Проект Закона состоит из шести глав и тридцати одной статьи, регулирующих понятия, принципы, права и обязанности субъектов, а также создание национальной платформы ИИ.

Однако, структурно документ напоминает рамочный акт политико-декларативного характера, аналогичный Концепции цифровой трансформации, развития отрасли информационно-коммуникационных технологий и кибербезопасности на 2023 - 2029 годы, принятой ранее в Республике Казахстан.

Несмотря на наличие ряда положительных аспектов, в том числе закрепление в Законопроекте принципов прозрачности, безопасности и защиты данных, проект не решает ключевых правовых вопросов, связанных с юридическим статусом ИИ, распределением ответственности и защитой прав пользователей ИИ.

В статье 1 Законопроект определяет ИИ как «функциональную способность к имитации когнитивных функций», однако не раскрывает, является ли ИИ субъектом или лишь инструментом права.

Это создаёт неопределённость при решении вопросов о правоспособности ИИ (может ли он быть стороной сделки?), ответственности за причинённый вред, признании результатов его деятельности в гражданском обороте.

В отличие от проекта, Регламент ЕС об ИИ (AI Act) прямо исходит из того, что искусственный интеллект - это инструмент, ответственность за который несёт человек или юридическое лицо (разработчик, оператор, пользователь).

При этом, статья 24 Законопроекта лишь указывает, что возмещение вреда осуществляется по Гражданскому кодексу, не вводя специальных норм.

Такой подход противоречит самой природе ИИ, где причинение вреда может происходить без участия человека, а причинно-следственная связь между действиями разработчика и результатом работы системы крайне сложна.

В этой связи, представляется целесообразным ввести презумпцию вины владельца или оператора системы, если не доказано иное, а также обязательное страхование ответственности за вред, причинённый системами высокого риска.

Кроме того, определения ИИ и связанных понятий в проекте Закона сформулированы относительно размыто. Например, «система искусственного интеллекта» определяется лишь как объект информатизации, функционирующий на основе одной или нескольких моделей ИИ, без указания признаков автономности или способности к обучению. Отсутствует определение таких важных ролей, как «разработчик», «поставщик (провайдер) ИИ-системы», «импортёр» и пр., которые присутствуют в Регламенте ЕС об ИИ (Artificial Intelligence Act).

Для сравнения, Регламент ЕС об ИИ (Artificial Intelligence Act) содержит обширный глоссарий терминов, и помимо определения самой ИИ-системы, там даны дефиниции разработчика (provider), пользователя (deployer), авторизованного представителя, распределённого решения, различных видов данных (тренировочные, валидационные), биометрических терминов, «серьёзного инцидента», «песочницы по ИИ» и т.д.

Европейский подход обеспечивает куда более точный понятийный аппарат, что снижает риск разночтений. Законопроекту «Об искусственном интеллекте» не хватает этой детализации. Например, отсутствие разграничения между разработчиком и конечным пользователем системы ИИ может затруднить определение, кто отвечает за несоблюдение требований: создатель алгоритма или компания, внедрившая его.

В цели и принципы Законопроекта заложено содействие развитию ИИ, тогда как вопросы защиты прав человека и этичности остаются более декларативными. В статье 3 проекта среди целей указано «обеспечение развития ИИ и стимулирование его внедрения», и лишь в задачах упомянута прозрачность, безопасность и т.п..

Для сравнения, Регламент ЕС об ИИ с самого начала ориентирован на человеко-центричность и защиту фундаментальных прав, провозглашая обеспечение высокого уровня охраны здоровья, безопасности и основных прав целью регулирования.

Законопроект носит явно рамочный характер: он декларирует общие обязанности и принципы, но почти не содержит конкретных процедур и требований.

Например, в статье 18 описан процесс управления рисками ИИ-системы: выявление и анализ рисков, оценка, принятие мер, ежегодное обновление оценки. Однако не указано, по каким стандартам это делается, какие риски считать приемлемыми и какие меры минимально необходимы. Аналогично, требование вести «документацию на систему ИИ» (статья 15 Законопроекта) есть, но содержание этой документации должно устанавливать уполномоченный орган отдельно.

Значительная часть нормативных деталей отложена до разработки подзаконных актов. В статье 13 Законопроекта прямо говорится, что уполномоченный орган будет разрабатывать политику в сфере ИИ, утверждать нормативные правовые акты, перечни документации, критерии классификации и т.д.. Это вызывает обоснованное беспокойство: во-первых, реализация закона будет зависеть от качества и своевременности множества подзаконных актов; во-вторых, появляется риск произвольного усмотрения чиновников при установлении конкретных правил.

Фактически Парламент делегирует детальное регулирование исполнительной власти, что снижает предсказуемость и устойчивость правовых норм.

Современные подходы к регулированию ИИ всё больше смещаются в сторону алгоритмической подотчетности - требованию проводить оценки воздействия (impact assessment), аудит алгоритмов на предмет дискриминации, публикации отчетов о работе ИИ и т.д. В США с этой целью предложен законопроект Algorithmic Accountability Act, требующий от крупных компаний, применяющих ИИ для принятия важных решений (в финансах, найме, образовании и др.), проводить обязательные оценки на предмет рисков для прав граждан.

Законопроект хотя и вводит право пользователя запрашивать объяснения и данные, однако системной прозрачности от разработчиков или владельцев не требует.

Нет нормы о том, что до внедрения системы высокого риска нужно опубликовать отчет о рисках или уведомить регулятора. Нет обязанности проводить независимый аудит алгоритмов на предмет качества и отсутствия дискриминации, тогда как, например, в Евросоюзе планируются строгие оценки соответствия высокорисковых систем перед запуском на рынок, включая проверку на отсутствие опасных рисков.

В целом, сравнение Законопроекта с Регламенте ЕС об ИИ (Artificial Intelligence Act) показывает, что Казахстан взял только «каркас» (определения, риск-подход, перечень запрещённого), но опустил большинство операционных деталей. Разумеется, Евросоюз - это большой рынок с мощными регуляторами, для них оправдано столь жёсткое регулирование.

Казахстан, возможно, сознательно смягчил требования, чтобы не тормозить развитие отрасли. Однако международный тренд задаёт планку и уже сейчас исследователи призывают Казахстан сближать свою терминологию, роли и стандарты с европейскими, дабы национальные разработки ИИ были совместимы с глобальным рынком и понятны инвесторам.

Исходя из выявленных недостатков и международного опыта, можно выдвинуть ряд рекомендаций по улучшению проекта Закона РК «Об искусственном интеллекте», чтобы сделать регулирование более полным и эффективным.

Во-первых, необходимо уточнить терминологию. Включить в текст закона определения ключевых участников: разработчик (поставщик) ИИ-системы, распространитель, оператор, импортер и т.п. Разграничить понятия «собственник» и «владелец» системы ИИ (если имеется в виду различие между разработчиком и пользователем). Это устранит правовую неопределённость и позволит точнее возлагать обязанности. Желательно привести дефиниции ИИ-системы в соответствие с международными, указав признаки адаптивности, автономности и способности делать выводы.

В статье 3 необходимо чётко обозначить приоритет: развитие ИИ должно осуществляться при условии обеспечения защиты прав человека, безопасности и соблюдения этических норм.

Кроме того, рекомендуется в самом Законопроекте перечислить типичные случаи высокорискованных ИИ, например, системы, используемые в медицинской диагностике, в отборе персонала, в управлении транспортом, в судебной или правоохранительной деятельности, в управлении критической инфраструктурой и т.д.

Для таких систем следует установить специальные обязательства: обязательный аудит/сертификация перед внедрением, регистрация в уполномоченном органе, регулярный мониторинг и отчётность о инцидентах. Эти требования могут быть развиты в подзаконных актах, но основа должна быть в законе, чтобы участники рынка заранее знали о дополнительных барьерах для ответственных областей. Такой подход предотвратит произвольную самооценку риска разработчиками и повысит доверие общества к важнейшим ИИ. Кроме того, стоило бы прописать концепцию «песочниц» (экспериментальных правовых режимов) для инновационных ИИ, чтобы компании могли тестировать новые решения под надзором без риска сразу нарушить Закон.

Законопроект должен обязывать разработчиков/провайдеров ИИ-систем определенного масштаба проводить оценку последствий (impact assessment) перед развертыванием системы. Эта оценка должна включать анализ рисков для прав человека, для безопасности, проверку на отсутствие дискриминационных факторов. Результаты таких оценок по ключевым системам (особенно высоким рискам) целесообразно представлять в уполномоченный орган или публиковать для общественности.

Проект Закона Республики Казахстан «Об искусственном интеллекте» знаменует собой важный шаг к формированию правовой основы для стремительно развивающейся сферы ИИ. Проведённый анализ продемонстрировал, что казахстанский законопроект впитал в себя многие идеи, обсуждаемые на международной арене: от риск-ориентированного подхода и запрета опасных практик до обеспечения прозрачности и защиты прав пользователей. Одновременно выявлены пробелы - недостаточная конкретизация механизмов реализации, слабость институционального обеспечения и некоторые методологические упрощения по сравнению с зарубежными регуляторами.

Сравнение с регламентом ЕС показало, что в глобальном масштабе регулирование ИИ идёт по пути ужесточения требований к разработчикам и усиливает акцент на защите общества от рисков ИИ. Казахстан стремится соответствовать этим тенденциям, но избран более мягкий и гибкий стиль регулирования. В перспективе сближение с международными стандартами неизбежно, как в силу интеграции в мировую экономику, так и для эффективности самого регулирования.

Для полноты и корректности законодательства об ИИ в Казахстане необходимо доработать проект с учётом высказанных предложений. В числе ключевых задач - чётко определить роли и ответственность всех участников, внедрить обязательные процедуры оценки и аудита для высокорисковых алгоритмов, укрепить гарантии прав человека (недискриминации, приватности, права на объяснение) и установить действенный механизм государственного надзора с прозрачными санкциями. Реализация этих мер позволит создать комплексную и современную систему регулирования ИИ, которая, с одной стороны, будет защищать граждан и общество от новых технологических угроз, а с другой стимулировать развитие инноваций в безопасных и этичных направлениях.

Нельзя не отметить, что регулирование ИИ это динамичная область. Технологии ИИ эволюционируют очень быстро, и законодательство должно успевать адаптироваться. Вероятно, даже после принятия закона Казахстану предстоит регулярно пересматривать и обновлять нормы об ИИ, опираясь на мировую практику и собственный опыт. В этом процессе важно сохранять баланс между поддержкой технологического прогресса и обеспечением общественных интересов. Грамотно выстроенная нормативная база ИИ станет фактором доверия к новым технологиям и конкурентным преимуществом страны в глобальной цифровой экономике. Таким образом, совершенствование проекта Закона об ИИ - это инвестиция в устойчивое и безопасное будущее Казахстана в эпоху искусственного интеллекта.

 

Укажите название закладки
Создать новую папку
Закладка уже существует
В выбранной папке уже существует закладка на этот фрагмент. Если вы хотите создать новую закладку, выберите другую папку.
Режим открытия документов

Укажите удобный вам способ открытия документов по ссылке

Включить или выключить функцию Вы сможете в меню работы с документом

Доступ ограничен
Чтобы воспользоваться этой функцией, пожалуйста, войдите под своим аккаунтом.
Если у вас нет аккаунта, зарегистрируйтесь
Обратная связь
Оставьте свои контактные данные и наш менеджер свяжется с вами