Европейский союз первым в мире принимает закон, который будет регулировать развитие систем искусственного интеллекта (ИИ) и защищать от них граждан. 14 июня Закон об ИИ принял Европарламент, а в силу он вступит после согласования и утверждения всеми странами ЕС в Европейском совете, передает inbusiness.kz со ссылкой на ВВС.
В законе системы ИИ разделены на группы по степеням риска, который они несут для европейских граждан и потребителей, и для каждой группы введены свои ограничения и меры контроля.
Совсем запрещены будут, например, системы, созданные для того, чтобы влиять на подсознание людей, а также системы биометрического распознавания, работающие в режиме реального времени.
Системы, создающие контент - такие, как ChatGPT - должны будут, в частности, четко маркировать свою продукцию и не выдавать ее за творчество живых людей.
"Депутаты Европарламента хотят гарантировать, чтобы системы ИИ контролировались людьми, были безопасны, прозрачны, отслеживаемы, не дискриминировали пользователей и способствовали защите окружающей среды", - объясняла пресс-служба Европарламента в мае, по ходу подготовки законопроекта.
В дебатах, которые прошли 13 июня, депутаты Европарламента больше всего внимания обратили на пункты о системах распознавания лиц. В проекте предлагается разрешить применение таких систем только "постфактум" (а не в режиме реального времени), только для поиска преступников, террористов и пропавших людей и только по решению суда.
Уверенное большинство евродепутатов - за такое решение, но небольшое меньшинство призывает совсем запретить системы распознавания лиц.
От этого меньшинства в дебатах выступил, в частности, Патрик Брайер - единственный в Европарламенте представитель Пиратской партии Германии.
"Мы открываем ящик Пандоры, мы создаем тотальное полицейское государство, как в Китае", - заявил Брайер (цитата по синхронному переводу).
Немецкий "пират" заявил, что системы распознавания лиц ошибаются в 99% случаев, и это ведет к задержаниям невиновных людей.
"Требование о санкции суда, предложенное жесткими консерваторами - это чистая формальность, дымовая завеса для прикрытия массовой слежки [...] Нельзя делать нормой культуру недоверия и становиться на сторону авторитарных режимов, которые применяют ИИ для подавления гражданского общества", - заявил Брайер перед дебатами.
Его многочисленные оппоненты возражали с трибуны Европарламента, что требовать полного запрета систем распознавания наивно, что они очень полезны в поиске террористов или, например, пропавших детей, и что сравнение с Китаем некорректно, поскольку в Европе правоохранительные органы и суды реально защищают права граждан.
Группы риска
В Законе об ИИ, который центральные европейские органы разрабатывали два года - и недавно внесли новые правки в связи с появлением феномена ChatGPT-4 - системы искусственного интеллекта разделены на четыре группы: группа "неприемлемого риска", группа "высокого риска", "генерирующие" системы и группа "ограниченного риска".
В группу "неприемлемого риска" зачислены:
- системы, созданные для воздействия на подсознание людей;
- системы социального рейтинга, разделяющего людей на категории по их поведению, социально-экономическому положению и прочим личным характеристикам;
- системы распознавания в режиме реального времени.
Все они будут в Европе запрещены, исключение сделано для использования систем распознавания правоохранительными органами постфактум и с разрешения суда.
В группу "высокого риска" попали:
- системы, применяющиеся в товарах и услугах, которые в ЕС попадают под лицензирование в рамках защиты потребителей. Это, например, игрушки, автомобили, авиация, медицинская аппаратура;
- системы управления критически важной инфраструктурой;
- системы, применяемые в образовательных учреждениях или в работе с персоналом фирм и учреждений;
- системы, применяемые в правоохранительных органах, работе с мигрантами и беженцами и в охране границ.
Все эти системы ИИ будут оцениваться до их внедрения и по ходу применения и регистрироваться в специальной базе данных ЕС.
Владельцы систем, генерирующих контент, таких как ChatGPT, должны будут:
- помечать созданный ими контент;
- программировать их так, чтобы они не создавали противозаконный контент;
- обнародовать списки данных, которые защищены авторским правом и на которых обучалась система.
Все прочие системы ИИ включены в группу "низкого риска", от них требуется лишь быть достаточно открытыми - чтобы пользователь знал, что имеет дело с ИИ, и имел достаточно информации, чтобы принять обоснованное решение, пользоваться ли им дальше.
Читайте по теме:
Создатель ChatGPT просит конгресс США регулировать технологии ИИ