Популярность приложений и сайтов, где при помощи искусственного интеллекта можно "раздевать" женщин на фото, стремительно растет: по данным аналитической фирмы Graphika, только в сентябре ими воспользовались 24 млн человек, передает inbusiness.kz со ссылкой на РБК.
Как сообщают аналитики Bloomberg, многие подобные сервисы используют популярные социальные сети для рекламы, в том числе X и Redditt, где с начала года число ссылок на приложения для "раздевания" возросло на 2400%.
Сервисы применяют искусственный интеллект для воссоздания изображения обнаженного человека, при этом большинство из них работают только с женщинами. Чаще всего фотографии берут из социальных сетей, а затем обрабатывают и распространяют их без согласия владельца. С развитием ИИ пользователи могут создавать все более реалистичные изображения, отмечает аналитик Graphika Сантьяго Лакатос.
В рекламе одного из приложений, размещенной в X, говорилось, что пользователь может создать фотографию обнаженного тела, а затем прислать его человеку, который там изображен — тем самым авторы объявления подстрекают к преследованию и домогательствам, отмечают аналитики. Некоторые приложения отображаются как спонсируемый контент на YouTube и появляются первыми при поиске по слову "nudify".
Представитель Alphabet (владеет YouTube) заявил агентству, что компания не разрешает размещать рекламу, "содержащую откровенно сексуальный контент". В X и Reddit не ответили на запросы Bloomberg.
Директор по кибербезопасности Electronic Frontier Foundation Ева Гальперин отмечает, что подобными программами все чаще пользуются "обычные люди с обычными целями". По ее словам, многие так и не узнают, что их фотографии могли использовать для создания дипфейков. Но даже если это произойдет, инициировать расследование или судебное разбирательство сложно, отмечает специалист.
Ранее сообщалось, что мошенники в Павлодаре используют дипфейки для киберпреступлений.