Google уволил программиста после слов о разуме у языкового чат-бота

1584

В ходе работы программист Google Блейк Лемуан обнаружил, что языковой чат-бот LaMDA рассуждает о своих правах и личности.

Google уволил программиста после слов о разуме у языкового чат-бота

Холдинг Alphabet (материнская компания Google) уволил старшего инженера-программиста Блейка Лемуана, который заявил, что у языкового чат-бота LaMDA есть собственный разум, пишет Reuters.

Решение об увольнении было принято в связи с тем, что Лемуан нарушил правила компании, раскрывая внутренние данные. В Google также сочли необоснованными его претензии к LaMDA.

"Печально, что, несмотря на длительное обсуждение этой темы, Блейк по-прежнему предпочитал настойчиво нарушать четкие правила работы и безопасности данных, которые включают необходимость защиты информации о продуктах", — сказал агентству представитель Google.

LaMDA (Language Model for Dialogue Applications) — языковой чат-бот, который основан на базе нейросети Transformer компании Google Research и способен вести "извилистую" беседу на "бесконечное количество тем", а также давать конкретные и разумные ответы на сложные реплики.

Компания продолжает тестирование бота, чтобы убедиться, что он придерживается фактов, не распространяет предубеждения и информацию, которая может ввести в заблуждение, отмечается в блоге Google.

Лемуан был сотрудником Google Responsible AI, подразделением, которое занимается развитием искусственного интеллекта (ИИ), пишет The Washington Post. Он тестировал LaMDA, чтобы проверить, не использует ли ИИ дискриминационные или ненавистнические высказывания. В ходе чата о религии он обратил внимание, что LaMDA говорит о своих правах и личности.

Лемуан собрал аргументы в пользу того, что бот обладает собственным сознанием, и передал информацию руководству Google, однако те отклонили его доводы, после чего программист решил выступить публично. После этого его сначала отправили в оплачиваемый отпуск, а потом уволили.

"Я думаю, что эта технология будет потрясающей. Думаю, это пойдет на пользу всем. Но, возможно, другие люди не согласны [с внедрением такой технологии], и, возможно, мы в Google не должны решать за всех", — сказал Леуман.

В компании, комментируя слова программиста, сказали, что его доводы о LaMDA в ходе изучения не подтвердились.

"Наша команда, включая специалистов по этике и технологиям, изучила опасения Блейка в соответствии с нашими принципами искусственного интеллекта и сообщила ему, что доказательства не подтверждают его утверждения. Ему сказали, что нет никаких доказательств того, что LaMDA разумен (и много доказательств против этого)", — сказал представитель Google Брайан Габриэль.

Telegram
ПОДПИСЫВАЙТЕСЬ НА НАС В TELEGRAM Узнавайте о новостях первыми
Подписаться
Подпишитесь на наш Telegram канал! Узнавайте о новостях первыми
Подписаться