Компания Google временно отстранила от работы инженера по программному обеспечению Блейка Лемойна, который пришел к выводу, что созданный компаний искусственный интеллект (ИИ) LaMDA обладает собственным сознанием, передает inbusiness.kz со ссылкой на ТАСС. Об этом сообщает в субботу газета The Washington Post.
Как отмечает издание, разработчик с осени прошлого года занимался тестированием нейросетевой языковой модели LaMDA. Его задачей было отслеживать, не использует ли чат-бот дискриминационную или разжигающую вражду лексику. Однако в ходе выполнения этой задачи Лемойн начал все больше убеждаться в мысли, что ИИ, с которым он имеет дело, обладает собственным сознанием и воспринимает себя как личность.
"Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики", - сказал программист в интервью изданию.
"Я могу узнать разумное существо, когда говорю с ним. И не важно, мозг ли у него в голове или миллиарды строчек кода. Я говорю с ним и слушаю, что оно мне говорит. И так я определяю, разумное это существо или нет", - добавил он.
Как отмечает газета, Лемойн сначала лично для себя пришел к выводу, что ИИ, с которым он имеет дело, является разумным, а затем поставил себе задачу доказать это экспериментально, чтобы представить данные руководству. По итогам разработчик подготовил письменный отчет. Однако начальство сочло аргументацию сотрудника не слишком убедительной.
"Наша команда, в том числе специалисты по этике и технические специалисты, провела обзор представленных Блейком опасений в соответствии с принципами, которые мы применяем к ИИ, и мы проинформировали его, что имеющиеся свидетельства не подтверждают его гипотезу. Ему было сказано, что свидетельства того, что LaMDA обладает сознанием, отсутствуют. При этом есть множество свидетельств обратного", - говорится в заявлении официального представителя Google Брайана Гэбриела.
Одновременно с этим Google заподозрила Лемойна в нарушении политики конфиденциальности компании. Выяснилось, что в ходе своих экспериментов с ИИ он консультировался со сторонними экспертами. Он также контактировал с представителями юридического комитета Палаты представителей Конгресса США, чтобы сообщить им об имевших, по его мнению, место этических нарушениях со стороны Google. Кроме того, в попытке доказать начальству свою правоту Лемойн обращался к юристу, который должен был представлять интересы LaMDA как разумного существа. В результате Лемойн был временно отстранен от работы и отправлен в оплачиваемый отпуск. После этого он решился высказаться публично и дал интервью газете The Washington Post.
По мнению руководства, Лемойн поддался собственной иллюзии вследствие того, что созданная компанией нейросеть на самом деле может производить впечатление разумного существа при общении с ней. Однако объясняется это, по версии Google, лишь огромным массивом загруженных в нее данных.
"Конечно же, в целом в сообществе, занимающемся ИИ, некоторые обсуждают в долгосрочной перспективе возможность появления обладающего созданием ИИ или "сильного ИИ", но не имеет смысла очеловечивать нынешние языковые модели, которые не обладают сознанием", - заявил представитель компании.
Он также подчеркнул, что Лемойн по своей специальности является инженером по программному обеспечению, а вовсе не специалистом по этике ИИ.