Маск, Возняк и Ной Харари против ChatGPT: человечеству угрожает "Скайнет"?

12231

Этот чат, подозревают они, может открыть ящик Пандоры.

Маск, Возняк и Ной Харари против ChatGPT: человечеству угрожает "Скайнет"? Фото: profile.ru

Стало известно, что Илон Маск рекомендует приостановить разработку искусственного интеллекта. Он не один такой: среди противников также сооснователь Apple Стив Возняк, гендиректор Stability AI Эмод Мастак, писатель Юваль Ной Харари, генеральный директор Conjecture Коннор Лихи и другие, передает inbusiness.kz со ссылкой на открытое письмо, под которым они подписались.

Авторы документа призвали мир приостановить разработку искусственного интеллекта. По их мнению, она несет риски для человечества.

Почему все боятся этого стартапа?

Как известно, недавно Маск набрал команду для разработки конкурента стартапа ChatGPT. Сам он ранее являлся соучредителем OpenAI, однако в 2018 году покинул проект. Илон сказал, что этот стартап был "ужасно хорошим".

"Мы можем наслаждаться "летом ИИ", пожиная плоды, разработанные этой системой, но при этом давая шанс обществу адаптироваться. Другие потенциально опасные технологии общество поставило на паузу, точно так же нам надо поступить и с искусственным интеллектом – наслаждаться долгим "летом" с ИИ, а не бросаться в "осень" неподготовленными", – написано в том письме.

Его опубликовал некоммерческий институт future of life, в тексте приведены данные исследования, которые говорят о серьезной опасности для человечества: здесь описаны риски для человечества и цивилизации со стороны конкурентоспособных систем ИИ, речь идет о влиянии на экономические и политические процессы. Подписавшиеся под письмом люди просят разработчиков поработать с политиками над управлением и регулирующими органами искусственного интеллекта. Подписанты отметили, что в наши дни нет ничего, что могло бы это регулировать. Сейчас лаборатории застряли в погоне за разработкой все более мощных цифровых умов, но контролировать их 100%-но никто не может, уверены авторы письма. 

Глава компании OpenAI Сэм Альтман признается, что и сам "немного боится", что ИИ может негативно сказаться на обществе:

"Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми".

В письме есть вопрос: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли автоматизировать все рабочие места? Должны ли развивать нечеловеческие умы, которые в конечном итоге могут превзойти человечество численностью и заменить его? Должны ли мы рисковать потерей контроля над нашей цивилизацией?

В OpenAI относительно недавно заявили, что "в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, а для достижения наилучших результатов нужно ограничить скорость создания новых моделей ИИ".

Развитие ИИ теперь под вопросом?

В письме призывают все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4. Маск, Возняк и другие говорят, что данная пауза должна быть общедоступной и поддающейся проверке. В ней, по их мнению, должны участвовать все ключевые участники, а если такую ​​паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.

Такая пауза должна использоваться для разработки и внедрения протоколов безопасности для усовершенствованного проектирования ИИ. Протоколы должны тщательно контролировать независимые внешние эксперты. Кроме того, должны быть гарантии, что системы будут безопасными, в первую очередь для человека. 

"Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к ящику Пандоры, который вскроет непредсказуемые последствия", – утверждается в открытом письме.

Напомним, ранее стало известно, что Европол увидел опасность в применении ChatGPT.

Читайте также:

В ChatGPT могут быть ужасные ошибки – Возняк

Искусственный интеллект подарит безусловную любовь?

Российская компания создала аналог ChatGPT на русском языке

Telegram
ПОДПИСЫВАЙТЕСЬ НА НАС В TELEGRAM Узнавайте о новостях первыми
Подписаться
Подпишитесь на наш Telegram канал! Узнавайте о новостях первыми
Подписаться