Введите номер документа
Прайс-лист

Как избежать рисков и штрафов с новым законом об ИИ в Казахстане (Байгалиев Жангали, юрист консультант Битрикс24 Казахстан)

Информация о документе
Датапятница, 30 января 2026
Статус
Действующийвведен в действие с
Дата последнего измененияпятница, 30 января 2026

30.01.2026

Как избежать рисков и штрафов с новым законом об ИИ в Казахстане

 

Жангали Байгалиев, 

Юрист консультант Битрикс24 Казахстан 

 

Искусственный интеллект стремительно меняет облик современного бизнеса, открывая новые возможности для роста и оптимизации процессов. Однако вместе с этим возникает необходимость в четком регулировании его и правомерном использовании.

18 января 2026 года в Казахстане вступил в силу Закон «Об искусственном интеллекте». В этой статье юрист консультант Битрикс24 Казахстан Жангали Байгалиев простым языком рассказывает, что регулирует новый закон и как компаниям развивать ИИ без рисков, штрафов и регуляторных последствий.

 

Правовой статус нейросетей

Юридически системы ИИ теперь официально признаются объектами информатизации. А значит должны проверяться, чтобы соответствовать правилам безопасности. При этом для ИИ предусмотрены дополнительные требования, связанные с особенностями алгоритмов.

Закон делит ИИ-системы на три категории по уровню риска.

Системы минимального риска. К ним относятся спам-фильтры, рекомендательные алгоритмы (например, в онлайн-кинотеатрах), офисные приложения для повышения производительности и другие. Это те, что не несут угрозы безопасности, правам и свободам людей. Они не требуют строгого контроля.

Системы среднего риска. Это нейросети, создающие тексты, изображения или аудио (например, маркетинговые инструменты, редакционные помощники). Чат-боты, виртуальные ассистенты и HR-системы.

К этой категории относятся также рекомендательные системы в e-commerce: алгоритмы, предлагающие товары на основе предпочтений.

Сбои в этих системах могут привести к материальному ущербу или моральному вреду, а также к снижению эффективности бизнес-процессов, но не создают прямой угрозы жизни.

В современных сервисах ИИ используется ассистент, а не как автономный субъект принятия решений. Финальное решение всегда остается за пользователем.

Системы высокого риска. Это те, от которых буквально зависят жизни, свобода или критические права людей. К ним относятся системы ИИ в здравоохранении, кредитовании, в судах и области правопорядка. Для систем высокого риска обязателен человеческий контроль. Машина не может принять окончательное решение без подтверждения живым специалистом.

 

Что запрещено делать с помощью ИИ

В Казахстане ввели ряд жестких запретов на определенные способы использования технологий ИИ.

Манипуляция сознанием: запрещено применять искусственный интеллект для скрытого влияния на подсознание людей, чтобы изменить их поведение, если это может нанести вред им или окружающим.

Эксплуатация уязвимостей: нельзя использовать ИИ для манипуляции слабостями людей, связанными с их возрастом, физическими или психическими особенностями.

Социальный скоринг: полностью запрещены системы, которые оценивают и классифицируют граждан на основе их социального поведения или личных характеристик, аналогичные системе «социального рейтинга».

Биометрическая слежка в реальном времени: Массовая идентификация лиц в общественных местах в режиме реального времени запрещена. Исключения составляют случаи поиска пропавших детей, предотвращения террористических актов или розыска преступников по решению суда.

Определение эмоций без согласия: Использование систем распознавания эмоций в рабочих или учебных процессах возможно только при наличии явного согласия человека.

Дискриминация: Алгоритмы, которые могут привести к предвзятости или дискриминации по признакам пола, расы, религии или социального статуса, запрещены.

 

H2-Как правильно маркировать контент с ИИ

Любой контент, созданный ИИ, теперь должен быть соответствующим образом промаркирован. Чтобы не нарваться на штраф (который для юрлиц может быть весьма ощутимым), маркировка должна быть явной и понятной. Закон не просто просит «упомянуть ИИ», а требует, чтобы зритель сразу понял: перед ним синтетический контент.

 

Текст:

В начале или в конце статьи/поста должна быть четкая плашка: «Данный материал создан при помощи системы искусственного интеллекта». Если ИИ только помогал (редактировал), формулировка может быть: «Материал подготовлен с использованием ИИ-ассистента».

 

Изображения:

В углу картинки должна быть нестираемая надпись (например, «AI Generated» или «Создано ИИ»). В файл должна быть вшита метка о происхождении контента (современные сервисы вроде Midjourney или Photoshop делают это автоматически).

 

Видео и Дипфейки:

На протяжении всего видео в углу должен висеть значок или надпись «ИИ-генерация». А в описании к видео и в первых кадрах ролика должно быть указано, что образы или голоса являются синтетическими.

 

Аудио:

Перед началом прослушивания (например, в подкасте или при звонке робота) должно идти звуковое уведомление: «Голос синтезирован искусственным интеллектом».

 

Где маркировка НЕ нужна:

- В личной переписке (если вы не вводите человека в заблуждение с целью выгоды).

- При использовании простых инструментов (фильтры яркости, удаление шума, проверка орфографии).

- В художественных фильмах, где использование спецэффектов очевидно для зрителя.

Важный нюанс: Если вы создали дипфейк с реальным человеком без его согласия — даже с маркировкой это может стать поводом для судебного иска о защите чести и достоинства.

 

За нарушение этих норм и правил эксплуатации ИИ (включая отсутствие обязательной маркировки контента) предусмотрена административная ответственность по статье 641-1 КоАП РК.

H2- Как развивать свой бизнес с ИИ без рисков

 

Чтобы бизнес с помощью ИИ-инструментов не только развивался, но и оставался в правовом поле, важно соблюдать баланс между эффективностью и требованиями закона.

Вот пошаговый гайд по правильному внедрению ИИ:

 

1. Определите категорию риска

Перед внедрением проведите внутренний аудит. Если ваша система ИИ помогает в медицине и банковском скоринге, она, скорее всего, относится к высокому риску.

Что делать: Вам потребуется зарегистрировать систему в Комитете цифровых активов и проходить регулярный аудит безопасности.

 

2. Защитите данные клиентов

Закон РК строго наказывает за утечки.

 

Правило: не «скармливайте» публичным нейросетям (вроде ChatGPT) персональные данные клиентов или коммерческую тайну.

 

Решение: Используйте локальные языковые модели или корпоративные версии с закрытым контуром обработки данных.

 

3. Настройте обязательную маркировку

Если ваш бизнес использует ИИ для общения с клиентами или создания рекламы:

В чат-ботах: В начале диалога добавьте фразу: «Здравствуйте! С вами говорит ИИ-ассистент».

В маркетинге: на изображениях, созданных нейросетями, ставьте пометку «Создано ИИ». Это защитит вас от штрафов за введение потребителей в заблуждение.

 

4. Внедрите «Человеческий контроль»

Никогда не оставляйте финальное решение за алгоритмом, если оно касается прав человека (например, отказ в услуге или увольнение).

 

Правило: всегда должен быть сотрудник, который может перепроверить и отменить решение ИИ. Это обязательное требование для систем среднего и высокого риска.

 

5. Оформите права на интеллектуальную собственность

Помните, что чистый контент от ИИ в Казахстане не защищен авторским правом.

 

Лайфхак: чтобы защитить созданный логотип или код, зафиксируйте в истории правок значительный «творческий вклад человека» (правки, доработки, детальные промпты).

 

6. Этический кодекс компании

Разработайте внутренний документ, запрещающий использование ИИ для манипуляций или дискриминации. В 2026 году это не просто этика, а страховка от судебных исков.

 

H2-Вопросы и ответы:

 

- Какие системы подпадают под действие нового закона об ИИ в Казахстане?

 

Закон охватывает все системы ИИ, которые используются в Казахстане, включая минимальный, средний и высокий уровни риска. Например, это могут быть рекомендательные алгоритмы, чат-боты, системы в здравоохранении или кредитовании.

 

- Что будет, если не маркировать контент, созданный ИИ?

 

За отсутствие обязательной маркировки предусмотрены штрафы, а в некоторых случаях — административная или уголовная ответственность. Для юридических лиц штрафы могут быть особенно значительными.

 

- Как правильно маркировать контент, созданный ИИ?

 

- Текст: Укажите, что материал создан или отредактирован с помощью ИИ.

- Изображения: Добавьте надпись «Создано ИИ» и встройте метку в файл.

- Видео: Укажите, что видео или голоса синтетические, и добавьте значок «ИИ-генерация».

- Аудио: перед воспроизведением добавьте звуковое уведомление о синтезе голоса.

 

- Как защитить данные клиентов при использовании ИИ?

Ответ: Не используйте публичные нейросети для обработки персональных данных. Лучше применять локальные модели или корпоративные версии с закрытым контуром.

 

- Что делать, если ИИ используется в маркетинге?

 

Ответ: убедитесь, что все материалы, созданные ИИ, имеют соответствующую маркировку, чтобы избежать введения потребителей в заблуждение.

 

Укажите название закладки
Создать новую папку
Закладка уже существует
В выбранной папке уже существует закладка на этот фрагмент. Если вы хотите создать новую закладку, выберите другую папку.
Скачать в Word

Скачать документ в формате .docx

Доступ ограничен
Чтобы воспользоваться этой функцией, пожалуйста, войдите под своим аккаунтом.
Если у вас нет аккаунта, зарегистрируйтесь
Режим открытия документов

Укажите удобный вам способ открытия документов по ссылке

Включить или выключить функцию Вы сможете в меню работы с документом

Обратная связь
Оставьте свои контактные данные и наш менеджер свяжется с вами