В Казахстане может появиться Этический кодекс использования ИИ педагогами и детьми

559

Запреты на использование ИИ не работают. 

В Казахстане может появиться Этический кодекс использования ИИ педагогами и детьми Фото: pixabay.com

На заседании мажилиса парламента РК депутат Анас Баккожаев поднял вопросы безопасности использования искусственного интеллекта, передает inbusiness.kz.

По его словам, нужна культура использования ИИ.

"Например, в школе задают домашнее задание. Но ребенок дома делает его с помощью ИИ. В магистратуру кто поступает, научные труды они сами не пишут, а руководитель его научный сам не читает. Он просто документы в чат GPT загружает и говорит: "дай мне короткую информацию". И получается именно со стороны духовности, знаний, как мы будем их защищать? И в данном проекте закона такие нормы не встречал. В школе почему мы не можем ставить обычные требования?" - спросил депутат.

В свою очередь, мажилисвумен Екатерина Смышляева согласилась с этими опасениями.

"Влияние частого использования ИИ на развитие когнитивных функций у детей уже доказано. Что касается детства – сейчас, насколько мне известно, что-то вроде этического кодекса наше министерство просвещения начали разрабатывать в плане использования ИИ педагогами, детьми, оценивании. По поводу того, как можно это отрегулировать? Сразу скажу, что запреты не работают. Если минпросвещения сочтет нужным запретить это все в законе, то они, наверное, взвесят это и какие-то ограничения поставят". – продолжила она.

Однако сегодня такое количество мобильных устройств и доступ к интернету, что любые ограничения просто не будут работать, потому что все равно найдется вариант, в данном случае, у этого чата спросить, считает депутат.

Отметим, что мажилис рассматривается в первом чтении законопроект "Об искусственном интеллекте".

Читайте по теме:

Возмещение вреда за действие ИИ хотят предложить в Казахстане

Telegram
ПОДПИСЫВАЙТЕСЬ НА НАС В TELEGRAM Узнавайте о новостях первыми
Подписаться
Подпишитесь на наш Telegram канал! Узнавайте о новостях первыми
Подписаться