Участники эксперимента должны были поместить изображения лиц, которые они видели, в одну из шести категорий, традиционно используемых для группировки эмоций: счастье, удивление, страх, отвращение, гнев и печаль. Ещё им нужно было указать, была ли выражена какая-то оценка на этих лицах, позитивная или негативная, или как «активировалось» лицо.
Движения лица, которые объединяли категорию и измерение, затем были помечены как мультиплексированные. Из 42 различных движений лица, от закрытия глаз до опускания челюсти, 26 получили мультиплексную отметку.
Это новое исследование поднимает сразу несколько интересных вопросов — не в последнюю очередь о том, как мы воспринимаем эмоции, когда они выражаются на лицах других людей. Помогают ли такие качества как, например, негативная окраска, распознавать категории эмоций, такие как грусть?
Исследователи надеются в будущих работах провести сканирование мозга участников, чтобы более внимательно изучить этот вопрос. В конце концов, мы полагаемся на расшифровку выражений лиц других людей с тех пор, как существовал наш вид, и в этом немалую роль играет мозг.
Те же результаты исследования могут быть полезны и в далёком будущем! Для робототехники и виртуальной реальности крайне важно, чтобы искусственные лица были разработаны для точного выражения чувств. «Эти результаты пригодятся нам для разработки социально интерактивного ИИ, в том числе социальных роботов и цифровых аватаров, для улучшения их сигнальных возможностей», — уточнила Рэйчел Джек.