20.11.2025
Ключевые аспекты Закона Республики Казахстан «Об искусственном интеллекте» от 17 ноября 2025 года № 230-VIII ЗРК
Чингис Оралбаев,
Управляющий Партнер
www.solispartners.com
Тел: +7 702 038 5068,
E-mail: info@solispartners.com,
www.solispartners.com
21 ноября 2025 года
Следуя практике юридической фирмы «SOLIS Partners» по информированию клиентов о важных правовых изменениях, которые могут оказать влияние на их деятельность, нам бы хотелось обратить Ваше внимание на ключевые аспекты Закона Республики Казахстан «Об искусственном интеллекте» от 17 ноября 2025 года № 230-VIII ЗРК (далее - «Закон»), который вступит в силу в конце января 2026 года.
Данный Закон представляет собой основу для формирования новой, комплексной отрасли права и затрагивает широкий спектр бизнесов - от IT-разработки и финансов до здравоохранения, транспорта и государственного управления.
1. ОБЩИЕ ПОЛОЖЕНИЯ
Закон вводит базовые понятия, такие как «искусственный интеллект», «система искусственного интеллекта», «модель искусственного интеллекта» и «синтетические результаты» (ст. 1), и закрепляет основные принципы его использования, включая законность, справедливость, прозрачность и приоритет благополучия человека (ст. 4-11).
Целями Закона являются стимулирование развития и внедрения технологий ИИ для улучшения качества жизни и повышения эффективности экономики (ст. 3).
2. КЛЮЧЕВЫЕ ТРЕБОВАНИЯ И НОВОВВЕДЕНИЯ
2.1. Классификация систем ИИ и управление рисками
Закон вводит риск-ориентированный подход. Все системы ИИ должны быть классифицированы их собственниками и владельцами по:
• Степени риска: минимальный, средний, высокий (ст. 17-1);
• Уровню автономности: низкая, средняя, высокая (ст. 17-2).
Для систем высокой степени риска (способных привести к ЧС или значительным негативным последствиям) предусмотрено ведение перечней доверенных систем (ст. 19) и проведение аудита (ст. 20).
На всех субъектов возлагается обязанность по внедрению непрерывного процесса управления рисками на протяжении всего жизненного цикла системы ИИ, включая ежегодное обновление оценки рисков (ст. 18).
2.2. Прямые запреты
Статья 17-3 Закона устанавливает прямой запрет на создание и эксплуатацию систем ИИ, предназначенных для:
• манипуляции поведением человека и ограничения его свободы воли;
• эксплуатации уязвимости физических лиц;
• социального скоринга в целях дискриминации;
• определения эмоций без согласия лица;
• создания и распространения запрещенного контента.
2.3. Обязанности собственников, владельцев и права пользователей
• Собственники и владельцы обязаны обеспечивать безопасность систем ИИ, вести документацию, осуществлять поддержку пользователей и предоставлять им пользовательское соглашение (ст. 15).
• Пользователи имеют право на получение разъяснений о результатах деятельности системы ИИ, затрагивающих их интересы, право запросить информацию о данных, на основе которых принято решение, и право отказаться от взаимодействия с ИИ, где это законом не предписано (ст. 16).
2.4. Прозрачность и авторское право
• Пользователи должны быть информированы о использовании ИИ при производстве товаров и оказании услуг (ст. 21-1).
• Синтетический контент (изображения, видео, текст), созданный ИИ, подлежит обязательной маркировке (ст. 21-2).
• Использование объектов авторского права для обучения моделей ИИ допускается только при отсутствии запрета правообладателя, выраженного в машиночитаемой форме (ст. 23).
2.5. Национальная платформа ИИ
Закон учреждает Национальную платформу искусственного интеллекта (ст. 25), предназначенную для предоставления услуг в сфере ИИ, доступа к вычислительным ресурсам и библиотекам данных (ст. 27).
3. ПОСЛЕДСТВИЯ ДЛЯ БИЗНЕСА И РЕКОМЕНДУЕМЫЕ ДЕЙСТВИЯ
Принятие Закона потребует от компаний, использующих или разрабатывающих технологии ИИ, принятия следующих мер:
1. Провести инвентаризацию и классификацию всех систем ИИ, используемых в бизнес-процессах или предлагаемых на рынке.
2. Внедрить внутренние процедуры управления рисками для систем ИИ в соответствии со ст. 18 Закона.
3. Адаптировать пользовательские соглашения и политики для обеспечения прозрачности и выполнения требований к информированию пользователей.
4. Провести аудит данных и моделей ИИ на предмет соответствия требованиям о защите персональных данных и авторских прав.
5. Изучить возможность подключения к Национальной платформе ИИ для получения доступа к ресурсам и данным.