И повод для таких прогнозов весомый: сегодня Касым-Жомарт Токаев подписал первый закон об искусственном интеллекте. Документ фактически задаёт правила игры для технологий будущего. Теперь термин "искусственный интеллект" закреплён на законодательном уровне, а его работа впервые четко прописана в законе — от принципов прозрачности до ответственности человека за каждое действие цифровой системы, передает Atameken Business.
В Казахстане, да, и вообще в СНГ принят первый закон об искусственном интеллекте. Сегодня Касым-Жомарт Токаев подписал пакет нормативных актов по цифровизации. Теперь в принципе введен на правовом уровне термин - искусственный интеллект и введены основополагающие принципы функционирования его систем. Эксперты говорят, собирали закон, что называется с миру по ниточке. Опирались на действующие законы и США, и Европы, и Китая.
Документ определяет, что любые системы ИИ — это инструмент, за который отвечает человек, а значит их владельцы и разработчики обязаны обеспечивать безопасность, прозрачность и защиту данных. Закон запрещает опасные практики, такие как манипулятивные технологии, незаконный сбор персональной информации и создание вредных ИИ-систем. Документ создает основу для безопасного развития технологий и защищает граждан от рисков цифровой эпохи.
"У нас сейчас, кто отнесет юридическую ответственность за информацию, которая распространяется на любой платформе, будь это ЧАИ, ЧПТ или ТИПСИК, нет никакой ни административной, ни уголовной ответственности. Но могут же распространяться заведомо ложные данные, или могут так называемые технологические гиганты использовать во вред, да, необходимые, допустим, в стране изменения, да, или необходимые изменения в нашем обществе. И для этого, вот, соответственно, и был впервые в Центральной Азии внедрен закон", - сказал член рабочей группы закона об ИИ Темирлан Зиналабдин.
Одной из ключевых новаций стало обязательное маркирование контента, созданного нейросетями. Теперь товары, услуги или материалы, созданные с участием ИИ, должны будут иметь специальную отметку, чтобы пользователь сразу понимал происхождение результата. Это сделано для прозрачности и защиты людей от введения в заблуждение, включая борьбу с дипфейками и манипулятивными технологиями. Проще говоря, маркировка показывает, где работает машина, а где человек.
"У нас сейчас достаточно много есть генеративных моделей, то есть условные там VO3, сейчас все их знают, миджорней, и так далее, и тому подобное. И, ну, здесь механика простая, что, если вы что-то создаете с помощью вишки, вы должны ставить маркер, что этот контент создан там с помощью искусственного интеллекта", - сказал директор студии разработки ИИ-решений Максим Беляков.
Еще одним интересным нововведением стало требование по хранению и использованию данных, которое, по признанию экспертов, пока вызывает больше вопросов, чем ответов. Закон усиливает правила защиты персональной информации и запрещает обучать ИИ на данных людей без их явного согласия, однако специалисты отмечают, что на практике механизм контроля за этим ещё не до конца понятен. Неясно, как именно будет отслеживаться, где хранятся данные, передаваемые в зарубежные нейросети, и смогут ли государственные органы эффективно реагировать на возможные утечки. Эксперты подчёркивают, идея правильная и нужная, но реальная работа этого положения станет понятна только после появления подзаконных актов и технических требований.
"Лично мое мнение, я не верю. Если у нас такие огромные объемы данных утекают периодически, гарантий, наверное, нет. Опять же, кому мы их отдаем? Если мы у GPT спросили, как от моего дома проехать, там назвала адрес, проехать до вокзала, например, до аэропорта быстрее, на чем дешевле. Внимание, вопрос, я кому данные отдала? Я вроде бы в Казахстане, вроде бы защищена законом, но слила их GPT. GPT куда их вылил? Казахстан меня будет защищать или нет? Пока не очень понятно", - говорит автор образовательных проектов по ИИ и цифровым навыкам Наталья Абрамова.
Вот только, как подчёркивают эксперты, ответственность за работу искусственного интеллекта в Казахстане полностью остается на человеке. Закон прямо фиксирует: ИИ не является субъектом права, поэтому за все решения, ошибки и последствия отвечают собственники, владельцы и пользователи — каждый в пределах своей роли. Как итог, Казахстан уже сделал большой шаг, чтобы объять необъятный ИИ. Теперь задача детальнее дополнить закон и опробовать его на практике.
Читайте по теме:
В РК ввели правила маркировки результатов ИИ