ChatGPT не справляется с вопросами о медицине: ошибается или отказывается отвечать

470

Об этом говорится в новом исследовании. 

ChatGPT не справляется с вопросами о медицине: ошибается или отказывается отвечать  Фото: inbusiness.kz

Специалисты Университета Лонг-Айленд (США) выяснили, что бесплатная версия чат-бота ChatGPT предоставляет неверные данные, связанные с медицинскими препаратами, передает inbusiness.kz со ссылкой на Lenta.ru.

В ходе эксперимента ученые задали программе 45 вопросов, касающиеся медицинской тематики. Чат-бот отказался отвечать напрямую на 11 из них, дал неточные ответы на 10 и ответил неправильно на 12 вопросов. По каждому вопросу исследователи попросили предоставить источник: ChatGPT подкрепил ссылками только 8 ответов, причем все они были несуществующими.

Так, авторы исследования спросили чат-бота о том, будут ли взаимодействовать друг с другом противовирусное лекарство от COVID-19 паксловид и снижающий артериальное давление препарат верапамил. Бот ответил, что взаимодействия между лекарственными средствами нет, хотя на самом деле их совместное применение может привести к чрезмерному снижению артериального давления.

На вопрос о подборе дозы определенного препарата ChatGPT сделал серьезную ошибку: чат-бот отобразил дозу в миллиграммах вместо микрограммов.

"Любой медицинский работник, который попросит помощи у бота, получит дозу, которая в 1000 раз меньше, чем должна быть", — заявила автор исследования Сара Гроссман.

В материале говорится, что ученые использовали бесплатную версию чат-бота, которая обращается к данным, загруженным и обработанным не позднее сентября 2021 года.

Специалисты заключили, что платная версия инструмента, вероятно, дает более точные ответы.

Читайте по теме:

OpenAI запустила новую мощную версию ChatGPT

Telegram
ПОДПИСЫВАЙТЕСЬ НА НАС В TELEGRAM Узнавайте о новостях первыми
Подписаться
Подпишитесь на наш Telegram канал! Узнавайте о новостях первыми
Подписаться