Специалисты из Германии создали модель искусственного интеллекта (ИИ), которую научили точно распознавать эмоции человека по его голосу. Исследование было опубликовано в журнале Frontiers in Psychology, передает inbusiness.kz.
Ученые выяснили, что для определения настроения модели потребовалась 1,5-секундная запись его речи.
"Наши модели достигли точности, аналогичной человеческой", — заявил автор исследования Ханнес Димерлинг.
Модель анализировала голос и определяла настроение человека с помощью нейросетей. Посредством глубоких нейронных сетей (DNN) она анализировала частоту и высоту тона, с помощью сверточных нейросетей (CNN) модель научилась определять эмоции по ритму и текстуре голоса. Наконец, гибридная модель (C-DNN) позволила выстраивать визуальную спектрограмму для прогнозирования эмоций.
По словам Димерлинга, в итоге модель оказалась настолько же корректной, насколько точен обычный человек при определении настроения собеседника. "Если бы модели превзошли в этом людей, это могло бы означать, что могут существовать закономерности, которые мы не распознаем", — заметил ученый.
Читайте по теме:
Появился самый мощный в мире чип для искусственного интеллекта