Казахстанцам усилят наказание за преступления, совершенные с помощью ИИ

1072

Соответствующие поправки предлагают внести в Уголовный кодекс. 

Казахстанцам усилят наказание за преступления, совершенные с помощью ИИ Фото: pixabay.com

В Казахстане предлагают ужесточить наказание за преступления, совершенные с использованием технологий искусственного интеллекта, передает inbusiness.kz.

Сенатор Серик Шайдаров отметил, что, по мере развития ИИ, казахстанцы  сталкиваются с новыми вызовами. Так, в социальных сетях и мессенджерах распространяют фальшивые видеоролики с участием известных людей.

"Распространение дипфейков – поддельных изображений и видео, созданных с использованием ИИ, которые все труднее отличить от реальности даже экспертам. Дипфейки могут использовать мошенники для создания фальшивых видеозвонков, где близкий человек якобы просит срочно перевести деньги. Как министерство планирует отслеживать и предотвращать распространение дипфейков с учетом того, что их становится все больше, и они все сложнее поддаются выявлению даже специалистами?" – спросил депутат на пленарном заседании сената.

На это вице-министр искусственного интеллекта и цифрового развития  Дмитрий Мун ответил, что учитываются обязательные требования по маркировке контента для того, чтобы его нельзя было использовать для создания дипфейков.

"Сейчас мошенники начинают использовать ИИ для того, чтобы подделать голос и т.д. На данный момент прорабатываются соответствующие информационные системы по выявлению таких звонков совместно с госорганами. Не совсем это ответственность только тех, кто использует ИИ. Здесь вопрос намного глубже. Чтобы правильно регулировать ввоз сим-карт, чтобы не было сим-боксов, чтобы блокировать атаки и масштабные звонки, отдельная работа министерством и другими госорганами проводится", – сообщил он.

В свою очередь, спикер сената Маулен Ашимбаев подчеркнул, что вопрос не только в звонках, а, в целом, по ситуации с дипфейками, в том числе, когда подделывают голоса.

"Кроме звонков мы видим, сколько дипфейков в соцсетях, там образы известных людей, которые делают какие-то заявления, которые не соответствуют действительности, поддерживают какие-то действия, чего нет в реальности. Они призывают сдавать деньги в какой-то фонд, чего они никогда бы в реальности не сделали. Поэтому "чем дальше в лес, тем больше дров". Это только начало, первые звоночки. Далее, по мере развития технологий с использованием ИИ, это будет серьезная проблема – такая искаженная информация, манипуляции. Нам нужно совместно с правоохранительными органами думать о вопросах ответственности. Эти вещи делают люди, не сами программы с ИИ генерируют контент. За этими фейками стоят люди, и именно их надо привлекать к ответственности за мошенничество, шантаж, незаконный сбор денег", – считает Ашимбаев.

Он отметил, что ужесточение ответственности за преступления, совершенные с помощью технологий ИИ, – это необходимый следующий этап.

Мажилисвумен Екатерина Смышляева поддержала Ашимбаева.

По ее словам, большая часть ответственности в мировой практике относится не к самому дипфейку, а к тому противоправному действию, которое с помощью него совершено, – мошенничество, дезинформация.

"В действующем Уголовном кодексе есть статья за мошенничество, и в ней отягчающее обстоятельство – совершение преступления с использованием информационных систем. Это очень узко, практически не охватывает системы с искусственным интеллектом, они могут быть не только в форме информационных систем. Это, в принципе, объект информатизации. Поэтому мы предложили более широкий вариант – "объект информатизации". Далее совместно с коллегами и при вашей поддержке мы какой-то более жесткий вариант ответственности должны предусмотреть", – резюмировала Смышляева.

Отметим, что сенат вернул в мажилис законопроект "Об искусственном интеллекте", поправки в законодательство по вопросам искусственного интеллекта и цифровизации.

Читайте по теме:

Военные вузы Казахстана включат в подготовку кадровых военных цифровые технологии и ИИ

Telegram
ПОДПИСЫВАЙТЕСЬ НА НАС В TELEGRAM Узнавайте о новостях первыми
Подписаться
Подпишитесь на наш Telegram канал! Узнавайте о новостях первыми
Подписаться