г) при непрерывном отсутствии пропуска пользовательского трафика в течение 60 (шестидесяти) последовательных календарных дней. При этом оператор телекоммуникаций, инициирующий расторжение соглашения о межсетевом соединении, должен иметь данные расчетной системы, сведения по загрузке межсетевых каналов, подтверждающие отсутствие пропуска пользовательского трафика в течение 60 (шестидесяти) последовательных календарных дней.
8. Оператор телекоммуникаций, прерывающий межсетевое соединение в одностороннем порядке, обязан уведомить отраслевого регулятора телекоммуникаций не позднее рабочего дня, следующего за днем прекращения взаимодействия.
9. Оператор телекоммуникаций обязан уведомить отраслевого регулятора телекоммуникаций обо всех фактах задолженности по соглашению о межсетевом соединении, превышающей двухмесячный период взаимодействия.
Статья 190. Рассмотрение споров
1. В случае возникновения споров по вопросам взаимодействия операторов телекоммуникаций любая из сторон в порядке досудебного рассмотрения обязана обратиться в отраслевой регулятор телекоммуникаций.
2. В целях достижения мирного разрешения спора стороны проводят предварительные переговоры и осуществляют переписку.
3. Отраслевой регулятор телекоммуникаций рассматривает обращение о досудебном рассмотрении спора в течение 2 месяцев с даты его получения.
4. В целях рассмотрения спора отраслевой регулятор телекоммуникаций имеет право запросить любые данные, в предоставлении которых не может быть отказано.
5. Отраслевой регулятор телекоммуникаций не рассматривает спор в следующих случаях:
1) если предметом спора не является взаимодействие с использованием цифровых технологических систем;
2) если предметом спора является заключение соглашения о взаимодействии, при этом с момента направления одним оператором телекоммуникаций запроса о заключении соглашения другому оператору прошло менее 3 месяцев;
3) если с даты последнего действия, совершенного в ходе переговорного процесса, прошло более одного года.
6. В случаях, предусмотренных пунктами 1 и 3 части 5 настоящей статьи, операторы телекоммуникаций вправе обратиться напрямую в суд.
7. Отраслевой регулятор телекоммуникаций в целях разрешения спора имеет право в своем решении установить технические и (или) финансовые условия взаимодействия, которые будут обязательными для сторон.
8. Отраслевой регулятор телекоммуникаций выносит решение по спору с учетом имеющихся и предоставленных данных, относящихся к предмету спора. Решение отраслевого регулятора телекоммуникаций выносится в виде административного акта и может быть обжаловано в судебном порядке.
9. В случае если отраслевой регулятор телекоммуникаций не вынес решения в срок, указанный в части 3 настоящей статьи, спор не считается решенным, а руководитель отраслевого регулятора телекоммуникаций подлежит привлечению к ответственности за бездействие в соответствии с законодательством о правонарушениях.
Глава 23. Системы искусственного интеллекта
Статья 191. Принципы проектирования, разработки и применения систем искусственного интеллекта
1. Системы искусственного интеллекта проектируются, разрабатываются и применяются в Кыргызской Республике без ограничений, за исключением случаев, установленных настоящим Кодексом.
2. Способы проектирования, разработки и применения систем искусственного интеллекта определяются их владельцами с учетом общепризнанной международной практики на основе следующих отраслевых принципов:
1) регулирование, разработка и использование систем искусственного интеллекта с учетом необходимости снижения рисков причинения вреда охраняемым благам (принцип снижения рисков);
2) понятность и предсказуемость характеристик системы искусственного интеллекта, доступность технической документации на нее (принцип открытости);
3) понятность оснований для решений или рекомендаций системы искусственного интеллекта, возможность перепроверки таких оснований (принцип объяснимости);
4) эффективный контроль человеком применения систем искусственного интеллекта (принцип подконтрольности);
5) достоверность результатов применения систем искусственного интеллекта, соответствующая целям их применения (принцип точности);
6) устойчивость систем искусственного интеллекта к случайным сбоям и неполадкам на основе принятия мер по предотвращению перебоев в работе системы и сохранности ее основных функций при сбоях или внеплановых внешних воздействиях (принцип надежности);
7) защищенность систем искусственного интеллекта от несанкционированного внешнего воздействия (принцип безопасности).
3. Принципы, определенные в настоящей статье, составляют основу правового регулирования отношений по проектированию, разработке, применению систем искусственного интеллекта, в том числе при определении требований к системам искусственного интеллекта. Выполнение установленных требований к системам искусственного интеллекта обеспечивает соблюдение принципов, предусмотренных настоящей статьей.
Статья 192. Ограничения и ответственность в связи с проектированием, разработкой и применением систем искусственного интеллекта
1. Обязательные требования либо иные ограничения в отношении систем искусственного интеллекта повышенной опасности могут устанавливаться настоящим Кодексом исключительно в целях минимизации риска причинения вреда следующим благам (охраняемые блага):
1) жизнь и здоровье людей;
2) права и свободы человека и гражданина;
3) окружающая среда;
4) обороноспособность государства;
5) национальная безопасность государства;
6) общественный порядок.
2. Запрещаются проектирование, разработка или применение систем искусственного интеллекта для целенаправленного и заведомо незаконного причинения вреда охраняемым благам.
3. Владельцы и пользователи систем искусственного интеллекта независимо от степени их опасности обязаны принимать все разумные и необходимые меры для минимизации рисков причинения вреда охраняемым благам при проектировании, разработке и применении таких систем и несут ответственность за причиненный вред в соответствии с законодательством Кыргызской Республики.
4. Правила и стандарты проектирования, разработки и применения систем искусственного интеллекта могут устанавливаться регламентом профессионального объединения владельцев систем искусственного интеллекта и должны включать в себя требования к профессиональной этике, оценке опасности систем искусственного интеллекта, управлению рисками, проектированию и разработке систем искусственного интеллекта, управлению цифровыми данными и системе менеджмента качества, а также иные требования, не противоречащие настоящему Кодексу и обязательные к исполнению.
Статья 193. Оценка опасности системы искусственного интеллекта
1. Все системы искусственного интеллекта, применяемые в Кыргызской Республике, подлежат оценке опасности, которую их применение может создать для охраняемых благ.
2. Оценка опасности осуществляется владельцем системы искусственного интеллекта:
1) на этапе проектирования системы искусственного интеллекта или планирования изменений в нее;
2) по завершении разработки и до начала применения системы искусственного интеллекта или внесенных в нее запланированных изменений;
3) при любом незапланированном изменении, произошедшем в системе искусственного интеллекта или в среде ее применения, о котором стало известно владельцу или пользователю системы, и которое может повлиять на результат оценки ее опасности.
3. Оценка опасности осуществляется владельцем системы искусственного интеллекта по методике, определенной им самостоятельно в соответствии с требованиями, установленными Кабинетом Министров, с учетом общепризнанной мировой практики.
4. Результаты оценки опасности системы искусственного интеллекта и методика оценки подлежат размещению на сайте владельца системы искусственного интеллекта в простой и понятной физическим лицам форме, а также в формате открытых данных, за исключением информации, относящейся к государственным секретам.
Статья 194. Системы искусственного интеллекта повышенной опасности
1. К системам искусственного интеллекта повышенной опасности относятся такие системы, применение которых, по сравнению с альтернативными способами, повышает риск (вероятность или размер) причинения вреда охраняемым благам до уровня, при котором требуется принятие мер по управлению такими рисками.
2. Система искусственного интеллекта, которая по итогам оценки опасности отнесена к системам искусственного интеллекта повышенной опасности, может проектироваться, разрабатываться и применяться при условии соблюдения требований, установленных настоящим Кодексом, на протяжении всего жизненного цикла такой системы.
3. Система искусственного интеллекта не может быть отнесена к системам повышенной опасности, если ее применение при принятии соответствующих решений или совершении действий носит исключительно вспомогательный характер и не приводит к повышению риска причинения вреда охраняемым благам.
4. Кабинет Министров устанавливает в отношении систем искусственного интеллекта повышенной опасности требования к:
1) управлению рисками;
2) характеристикам указанных систем, обеспечивающим открытость, объяснимость, подконтрольность, точность, надежность и цифровую устойчивость таких систем;
3) качеству цифровых данных для таких систем;
4) технической документации на такие системы.
5. Владелец системы искусственного интеллекта повышенной опасности обязан:
1) обеспечить соответствие такой системы обязательным требованиям;
2) внедрить и на протяжении всего жизненного цикла такой системы поддерживать систему управления рисками, соответствующую требованиям настоящего Кодекса;
3) разработать надлежащую техническую документацию такой системы;
4) обеспечивать сохранность журналов работы системы в период ее нахождения под его контролем;
5) подтвердить соответствие системы требованиям, установленным настоящим Кодексом, до начала ее применения;
6) принять меры по устранению выявленных несоответствий системы установленным обязательным требованиям;
7) по требованию соответствующего уполномоченного государственного органа приостановить, а на основании вступившего в законную силу судебного акта - прекратить проектирование и разработку системы, если такие действия осуществляются с нарушением требований настоящего Кодекса.
Статья 195. Подтверждение соответствия систем искусственного интеллекта повышенной опасности обязательным требованиям
1. До начала применения системы искусственного интеллекта повышенной опасности ее владелец обязан подтвердить ее соответствие требованиям, установленным настоящим Кодексом, путем принятия декларации. Форма указанной декларации, а также требования к ее содержанию утверждаются Кабинетом Министров.
2. Принятая декларация должна быть изложена в форме цифрового документа, подписана квалифицированной цифровой подписью и размещена на сайте владельца системы искусственного интеллекта. Указанная декларация относится к общедоступным цифровым записям.
Статья 196. Использование систем искусственного интеллекта повышенной опасности
1. Пользователь системы искусственного интеллекта повышенной опасности обязан:
1) использовать ее в соответствии с руководством по эксплуатации;
2) обеспечивать релевантность цифровых данных, обрабатываемых с использованием такой системы;
3) обеспечивать эффективный контроль работы системы в период ее использования, включая выделение для этого необходимых ресурсов и определение лиц, ответственных за такой контроль;
4) при наличии оснований полагать, что использование системы в соответствии с руководством по эксплуатации может привести к причинению вреда охраняемым благам, незамедлительно уведомить владельца системы и приостановить ее использование;
5) обеспечивать сохранность журналов работы системы в период ее нахождения под его контролем;
6) использовать информацию, предоставленную владельцем системы, для выполнения обязанностей, предусмотренных настоящим Кодексом;
7) по требованию уполномоченного государственного органа приостановить, а на основании вступившего в законную силу судебного акта - прекратить применение такой системы, если такие действия осуществляются с нарушением требований настоящего Кодекса.
2. При применении системы искусственного интеллекта повышенной опасности для получения результата, который используется для принятия решения, способного повлечь нарушение прав, свобод или законных интересов физических или юридических лиц, пользователь указанной системы обязан:
1) в случаях проектирования, разработки или применения системы для взаимодействия с физическими лицами - потребителями, размещать на своем сайте, а в остальных случаях - предоставлять в доступной и понятной форме общие сведения о характеристиках такой системы, принципах ее работы, а также о принципах получения и применения соответствующего результата;
2) по требованию лиц, интересы которых затрагиваются таким решением, безвозмездно предоставлять им информацию в доступной и понятной форме, позволяющей понять и проверить предпосылки и способы получения относящегося к ним результата, полученного с применением такой системы.
3. На пользователя системы искусственного интеллекта повышенной опасности либо на иное лицо возлагаются обязанности владельца такой системы, если:
1) система вводится в эксплуатацию от имени такого лица (под его наименованием, товарным знаком либо иным аналогичным обозначением);
2) такое лицо изменяет назначение системы после ее ввода в эксплуатацию, либо вносит в нее существенные изменения;
3) система вводится в эксплуатацию либо изменяется ее назначение таким образом, что она становится системой искусственного интеллекта повышенной опасности или частью такой системы.
4. В случаях, предусмотренных пунктами 2 и 3 части 3 настоящей статьи, первоначальный владелец системы искусственного интеллекта повышенной опасности освобождается от исполнения обязанностей, предусмотренных настоящей главой.
5. Если система искусственного интеллекта повышенной опасности применяется пользователем исключительно для личных или семейных нужд, такой пользователь освобождается от исполнения обязанностей, установленных пунктами 2-6 части 1 и частью 2 настоящей статьи. При этом в случаях, когда в результате такого применения нарушаются права, свободы или законные интересы третьих лиц, ответственность за исполнение указанных обязанностей несут солидарно данный пользователь и лицо, предоставившее ему доступ к соответствующей системе.
Статья 197. Раскрытие информации при применении отдельных видов систем искусственного интеллекта
1. Владельцы и пользователи систем искусственного интеллекта, проектирующие, разрабатывающие или применяющие такие системы в целях взаимодействия с физическими лицами - потребителями, обязаны информировать последних о факте взаимодействия с системами искусственного интеллекта, за исключением случаев, когда такое взаимодействие является очевидным из обстановки. Сведения о применении систем искусственного интеллекта в рамках правоотношений в цифровой среде являются общедоступной информацией. Данные сведения подлежат размещению в доступной и понятной форме на сайтах пользователей соответствующих систем и сайте отраслевого регулятора нацэкосистемы.
2. Пользователи систем искусственного интеллекта, предназначенных для распознавания эмоций или классификации физических лиц по биометрическим признакам, должны информировать физических лиц о применении в отношении них таких систем.
3. Обязанности, предусмотренные частями 1 и 2 настоящей статьи, не распространяются на проектирование, разработку и применение таких функций систем искусственного интеллекта, в отношении которых такое информирование препятствовало бы их законному использованию по назначению в целях обеспечения:
1) обороноспособности;
2) национальной безопасности;
3) общественного порядка в части обнаружения, предотвращения, расследования преступлений и осуществления уголовного преследования.
4. Пользователи систем искусственного интеллекта, которые используют такие системы для дипфейков, должны раскрыть информацию об искусственном происхождении или изменении материалов.
5. Обязанность, предусмотренная частью 4 настоящей статьи, не распространяется на случаи законного использования таких изображений или материалов в целях защиты охраняемых благ, предусмотренных частью 3 настоящей статьи, или в целях реализации права на свободу научного, технического, художественного и иных видов творчества, преподавания и обучения.
6. Применение исключений, предусмотренных частями 3 и 5 настоящей статьи, допускается лишь при условии принятия необходимых мер для защиты затрагиваемых прав и свобод человека и гражданина.
Глава 24. Обеспечение непрерывности отношений в цифровой среде
Статья 198. Действие ранее выданных документов
1. Лицензии на радиочастотный ресурс в соответствии с настоящим Кодексом признаются решениями о выделении радиочастот и действуют в течение всего указанного в них срока. Продление, переоформление, аннулирование лицензии на радиочастотный ресурс осуществляются согласно правилам, установленным настоящим Кодексом для продления, внесения изменений, прекращения права на использование радиочастотного спектра. Лицензии на радиочастотный ресурс не могут быть повторно выставлены на торги.
2. Разрешения на частотные присвоения в соответствии с настоящим Кодексом признаются решениями о присвоении радиочастот и действуют в течение всего указанного в них срока. Продление, переоформление, аннулирование частотных присвоений осуществляются по правилам, установленным настоящим Кодексом для продления, внесения изменений, прекращения решения о присвоении радиочастот. По желанию обладателя частотного присвоения и при наличии оснований, установленных настоящим Кодексом, отраслевой регулятор телекоммуникаций обязан вынести решение об общем присвоении.
3. Лицензии на деятельность в области электрической связи и в области передачи данных в соответствии с настоящим Кодексом признаются лицензиями на деятельность операторов телекоммуникаций и действуют бессрочно. Лицензии на деятельность в области электрической связи и в области передачи данных по желанию их обладателя могут быть переоформлены в лицензии оператора телекоммуникаций без взимания платы.
4. Записи в цифровые реестры вносятся в соответствии с настоящим Кодексом на основании выданных ранее документов без прерывания срока действия выданных ранее лицензий, разрешений, решений о выделении ресурса нумерации и сертификатов, при этом дополнительные разрешения и выплаты для внесения записей в цифровые реестры не требуются.
5. Сертификаты электронной подписи в соответствии с настоящим Кодексом признаются сертификатами цифровой подписи и действуют до окончания указанного в них срока.
6. К простым электронным подписям, созданным до момента вступления в силу настоящего Кодекса, применяются правила настоящего Кодекса, относящиеся к цифровым идентификаторам.
Статья 199. Регулирование отношений по обработке и передаче информации без использования цифровых технологий
1. Передача сообщений без использования цифровых технологий не регулируется настоящим Кодексом, за исключением случаев лицензирования соответствующей деятельности, и осуществляется на основании договоров, заключаемых в порядке, установленном гражданским законодательством.
2. Лица, предоставляющие услуги по передаче сообщений без использования цифровых технологий, обязаны соблюдать тайну переписки, почтовых, телеграфных и иных сообщений.
3. Если исполнение обязанности по уведомлению субъектов правоотношений, предусмотренной настоящим Кодексом, невозможно осуществить с использованием цифровых технологий по причине отсутствия соответствующей контактной информации, уведомление субъекта осуществляется при его личном обращении.
4. Информационные ресурсы государственных органов или органов местного самоуправления, представленные в виде нецифровых записей (государственные или муниципальные информационные ресурсы), подлежат преобразованию в государственные или муниципальные цифровые ресурсы соответственно. До завершения цифровизации государственных и муниципальных информационных ресурсов информация, содержащаяся в них, используется на тех же основаниях и с теми же ограничениями, что и информация, содержащаяся в государственных и муниципальных цифровых ресурсах.
Статья 200. Формирование нацэкосистемы
Владельцы (обработчики) государственных информационных систем и государственных информационных ресурсов обязаны обеспечить включение сведений о них в реестр нацэкосистемы в порядке, установленном настоящим Кодексом.