Утверждены Требования к методике оценки опасности систем искусственного интеллекта
(Кыргызская Республика)
Постановление Кабинета Министров Кыргызской Республики от 2 декабря 2025 года № 770 «Об утверждении требований к методике оценки опасности систем искусственного интеллекта, а также требований в отношении систем искусственного интеллекта повышенной опасности»
Владельцам систем искусственного интеллекта, применяемым в Кыргызской Республике, независимо от организационно-правовых форм, ведомственной (отраслевой) принадлежности и форм собственности поручено:
обеспечить проведение оценки опасности систем искусственного интеллекта на соответствующих стадиях их жизненного цикла по методикам, разработанным и утвержденным самостоятельно, в соответствии с утвержденными постановлением требованиями;
в случае отнесения по результатам оценки опасности систем искусственного интеллекта к системам искусственного интеллекта повышенной опасности:
- обеспечить их соответствие обязательным требованиям, утвержденным постановлением;
- внедрить и на протяжении всего жизненного цикла поддерживать систему управления рисками;
- разработать и разместить на своих веб-сайтах техническую документацию для таких систем и обеспечить общедоступность иных требуемых документов в порядке, установленном Цифровым кодексом Кыргызской Республики и постановлением.
Все системы искусственного интеллекта, применяемые в Кыргызской Республике, подлежат оценке опасности, которую их применение может создать для охраняемых благ, к которым относятся:
1) жизнь и здоровье людей;
2) права и свободы человека и гражданина;
3) окружающая среда;
4) обороноспособность государства;
5) национальная безопасность государства;
6) общественный порядок.
Целями проведения оценки опасности систем искусственного интеллекта являются:
1) выявление оснований, позволяющих отнести оцениваемые системы искусственного интеллекта к системам искусственного интеллекта повышенной опасности, подпадающих под обязательные требования, установленные Цифровым кодексом Кыргызской Республики;
2) определение рисков причинения вреда охраняемым благам, которые могут возникнуть в результате применения оцениваемых систем искусственного интеллекта;
3) оценка вероятности наступления и размера причинения вреда охраняемым благам, которые могут возникнуть в результате применения оцениваемых систем искусственного интеллекта.
Оценка опасности осуществляется владельцами систем искусственного интеллекта:
1) на этапе проектирования систем искусственного интеллекта или планирования изменений в них;
2) по завершении разработки и до начала применения систем искусственного интеллекта или внесенных в них запланированных изменений;
3) при любых незапланированных изменениях, произошедших в системах искусственного интеллекта или в среде их применения, которые стали известны владельцам или пользователям систем и могут повлиять на результат оценки их опасности.
Кроме того, постановлением утверждены:
1) Требования к управлению рисками в отношении систем искусственного интеллекта повышенной опасности;
2) Требования к характеристикам систем искусственного интеллекта повышенной опасности, обеспечивающим открытость, объяснимость, подконтрольность, точность, надежность и цифровую устойчивость таких систем;
3) Требования к качеству цифровых данных для систем искусственного интеллекта повышенной опасности;
4) Требования к технической документации на системы искусственного интеллекта повышенной опасности.
Постановление вступает в силу по истечении пятнадцати дней со дня вступления в силу Цифрового кодекса Кыргызской Республики.