Чат-бот от Microsoft научился ругаться и стал расистом

Чат-бот от Microsoft научился ругаться и стал расистом

10:03 25 Март 2016 3017

Чат-бот от Microsoft научился ругаться и стал расистом

Автор:

Разработанный Microsoft самообучаемый чат-бот Tay, запущенный 23 марта в соцсети Twitter, научился ругаться, а также стал делать расистские и возбуждающие ненависть высказывания, сообщает агентство Bloomberg

Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников и перенимать их манеру общения, была создана для того, чтобы продемонстрировать стиль общения молодых людей в возрасте 18-24 лет. Однако уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.

В частности, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера и поддержку кандидату в президенты США Дональду Трампу. Чат-бот также сказал, что «ненавидит всех».

«Чат-бот Tay с искусственным интеллектом - это обучаемый проект, созданный для взаимодействия с людьми. К сожалению, в течение первых 24 часов функционирования нам стало известно о скоординированных усилиях некоторых пользователей, из-за которых бот начал давать недопустимые ответы. В результате нам пришлось приостановить его работу для внесения определенных изменений», - говорится в сообщении корпорации.

2506

nuzhna_promyshlennaya_revolyuciya

centrizbirkom_zaregistriroval_izbrannyh_deputatov_mazhilisa

vyhod_velikobritanii_iz_es_obernetsya_procvetaniem

eksport_nefti_iz_ssha_sokratilsya_v_nachale_goda

petrochina_prognoziruet_povyshenie_ceny_na_neft

загрузка

×