Kang et al.
Ученые представили новый алгоритм обработки ЭЭГ-сигналов, при помощи которого они смогли точно прочитать эмоции глухих людей
По сравнению с обычными людьми, лишенные слуха пациенты имеют определенные различия в восприятии эмоций. Это может вызвать некоторые проблемы, такие как психологические отклонения в повседневной жизни. Большинство прошлых исследований, направленных на разработку моделей распознавания эмоций, проводились на людях без сенсорных нарушений.
Авторы нового исследования решили восполнить этот пробел в литературе, разработав систему, которая может конкретно классифицировать эмоции глухих людей. Для начала ученые исследовали различия в активности мозга и функциональных связях между людьми без нарушений слуха и глухими, находящимися в трех различных эмоциональных состояниях — положительном, нейтральном и отрицательном. Для этого авторы отобрали 15 глухих студентов Тяньцзиньского технологического университета и собрали записи сигналов ЭЭГ.
Ученые использовали собранные данные для составления компьютерного алгоритма, способного связывать наблюдаемые сигналы с эмоциональным окрасом мыслей глухих людей. Авторы обнаружили, что выбор порогового значения сигналов сыграл важную роль в построении ими мозговой сети. Экспериментальные результаты показывают, что новая модель подходит, в отличие от алгоритмов глубокого обучения, для небольших выборочных данных и может эффективно снизить риск неправильной интерпретации.
В своих экспериментах ученые обнаружили, что их модель может распознавать эмоции глухих людей со значительно большей точностью, чем эмоции людей без нарушений слуха. Возможное объяснение этого заключается в том, что глухие люди имеют более простое понимание эмоций из-за отсутствия у них одного канала, связанного с получением эмоций.
Статья опубликована в журнале IEEE Sensors Journal.