Социум

Что изменится для казахстанцев после принятия нового Закона об ИИ

17 ноября Президент Казахстана подписал Закон «Об искусственном интеллекте». Это первый комплексный документ, регулирующий работу нейросетей, автоматизированных систем и синтетического контента в стране. Что это означает для обычных казахстанцев?

Он вступит в силу через 60 дней и станет основой для того, как технологии ИИ будут использоваться в медиа, бизнесе, госуслугах и повседневной жизни граждан.

ПОЧЕМУ ОТДЕЛЬНЫЙ ЗАКОН?

Еще два года назад понятия «нейросети», «генеративные модели» и «дипфейки» звучали как что-то далекое для большинства пользователей. Но массовое распространение ИИ, к примеру, того же ChatGPT, сделало вопрос регулирования как никогда актуальным.

Прежде в Казахстане использовались лишь отдельные нормы в законах «Об информации», «О персональных данных», Кодексе об административных правонарушениях. Но потребовалась цельная рамка, которая определит, кто отвечает за действия ИИ, как обеспечивается прозрачность алгоритмов, что делать при ошибках и где проходит граница между допустимым и опасным использованием технологий.

Депутат Мажилиса Екатерина Смышляева, руководившая рабочей группой по законопроекту, неоднократно подчеркивала, что искусственный интеллект не признается субъектом права. Ответственность за все решения, принятые с его помощью, всегда остается за человеком.

Работа над пакетом законов об ИИ началась еще в 2024 году. В марте 2025 года депутат Екатерина Смышляева представила проект закона «Об искусственном интеллекте» в Мажилисе.

И это ключевой принцип. Нейросеть – это не цифровой специалист, который разбирается во всех отраслях, а лишь инструмент, за который отвечает тот, кто им пользуется.

ЧТО МЕНЯЕТСЯ ДЛЯ ГРАЖДАН

Во-первых, появится маркировка синтетического контента. С 2026 года видеоролики, фото, аудио и тексты, созданные или измененные ИИ, должны будут сопровождаться специальным указанием. Это касается дипфейков, аватаров, нейроредактированных изображений и даже полностью сгенерированных новостей.

Это делается для того, чтобы потребитель всегда понимал, где контент, созданный человеком, а где искусственно созданный образ. При этом важно понимать, что в случае ошибки ответственность несет человек.

– ИИ помогает не нарушить право на изображение и защитить персональные данные, например, когда речь идет о чувствительных темах, когда нельзя показывать жертв насилия или детей. В таких материалах маркировка тоже обязательна, но она не вызовет негативной реакции у читателей, потому что использование ИИ в данной ситуации вполне оправданно, – отмечает юрист Правового медиацентра Гульмира Биржанова.

Таким образом, синтетические лица и анонимизированные изображения позволяют журналистам рассказывать истории, не раскрывая личности героев. Однако есть и риски.

– Минусы – это достоверность информации. Журналисты иногда берут текст от ИИ, не проверяют и публикуют. Модель может выдумывать, неправильно цитировать и ставить несуществующие ссылки, – подчеркивает Биржанова.

Во-вторых, закон будет направлен на защиту от дипфейков. В последние годы Казахстан пережил всплеск таких сгенерированных видеороликов. Причем рядовые пользователи применяли новую технологию для создания креативных или юмористических видеороликов, а мошенники – для обмана.

– Когда используют публичные лица в рекламе, как в истории с акимом Экибастуза Аяном Бейсекиным, с которым был создан дипфейк, будто он покупает куртку в одном из бутиков в рекламном ролике – это еще безобидно, и несмотря на то, что нельзя использовать изображения в коммерческих целях без согласия. Реакция акима была достаточно адекватной, он отнесся с юмором. Но когда дипфейк призывает к несанкционированным митингам или используется в мошенничестве – это уже противоправно и несет реальную опасность. В таких случаях ответственность будет и для тех, кто создает контент и для тех, кто его распространяет, – приводит характерные примеры Гульмира Биржанова.

Закон прямо запрещает манипулирование поведением граждан, создание ложных образов и классификацию людей по чувствительным признакам.

В-третьих, у казахстанцев появляется важная гарантия – они смогут запрашивать информацию о том, какие данные использовала система, как принималось решение и на каком основании.

Например: почему алгоритм отказал в кредите, почему система поставила «низкий рейтинг надежности», почему робот-оператор не дал доступ к услуге.

Это направление особенно важно, поскольку ИИ все чаще используется в банках, страховании, HR и сервисах госуслуг.

Большое внимание в законе уделяется введению классификации систем искусственного интеллекта по нескольким критериям: степени риска, уровню автономности и типу (открытые, закрытые и локальные системы).

Полностью автономные системы – те, где человек не может вмешаться в процесс принятия решений, – прямо исключены из регулирования как нереалистичные для нынешнего уровня развития технологий. Они не применяются на практике нигде в мире, поскольку считаются неэтичными.

К примеру, если медицинская система ИИ самостоятельно без врача ставит диагноз и пациент не может оспорить решение, то это высокая автономность. Она недопустима согласно новому закону.

В-четвертых, закон усиливает защиту персональных данных. Обучение моделей не может происходить на данных, собранных незаконно, а любые автоматизированные процессы должны соответствовать требованиям по сохранности информации.

Это реакция на громкие утечки последних лет, как случай с утечкой базы данных на 16 млн граждан, массовый слив номеров телефонов в сеть.

Скорректированы и другие акты, в том числе и об оперативно-розыскной деятельности, органах национальной безопасности, лицензировании в сфере кибербезопасности, торговой деятельности и цифровых активах. Часть поправок связана не только с ИИ, но и с общим усилением регулирования в цифровой среде.

ИЗМЕНЕНИЯ В СОПУТСТВУЮЩИХ ЗАКОНАХ

Третий элемент пакета – поправки в Кодекс об административных правонарушениях. Закон № 232-VIII вводит новую статью 641-1, устанавливающую административную ответственность за нарушение законодательства РК в сфере искусственного интеллекта.

Речь идет прежде всего о действиях или бездействии собственников и владельцев систем ИИ – тех, кто запускает, эксплуатирует и предоставляет такие решения пользователям.

При первом нарушении штраф составляет 15 МРП для физических лиц, 20 МРП для малого бизнеса и НПО, 30 МРП для субъектов среднего бизнеса и до 100 МРП для крупного бизнеса. При повторном нарушении в течение года штрафы увеличиваются до 30, 50, 70 и 200 МРП соответственно.

Новый закон фиксирует минимальные правила игры: человеческие права выше алгоритмов, решения ИИ должны быть объяснимыми, а за последствия всегда отвечает человек, а не ИИ-модели.

Для бизнеса закон добавляет дополнительные обязанности по документированию, маркировке при использовании ИИ-инструментов.

Екатерина БАЙНЯШЕВА, карикатура
сгенерирована ИИ,
фото со страницы
в Фейсбуке героя материала


Много сидишь в социальных сетях? Тогда читай полезные новости в группах "Наш Костанай" ВКонтакте, в Одноклассниках, Фейсбуке и Инстаграме. Сообщить нам новость можно по номеру 8-776-000-66-77