Сегодня значительное количество объектов транспортной, промышленной и оборонной инфраструктуры контролируется и функционирует при помощи операторов, водителей или единых информационных центров с целой командой специалистов. От психофизиологического состояния часто зависит способность обеспечить безопасность таких объектов.
Для регулярного мониторинга столь важных специалистов сейчас активно внедряются цифровые помощники, в основе которых лежат нейросети, использующие для распознавания внешние проявления личности на видеозаписях: выражение лица, речь, язык тела и проч. Однако эти методы имеют ограничения, в том числе зависимость от визуальных или слуховых стимулов, на которые могут влиять условия освещения, фоновый шум или культурные различия в выражении эмоций. Поэтому для повышения качества работы цифровых помощников исследователи привлекают широкий комплекс разнородных данных.
Ученые СПб ФИЦ РАН уже много лет ведут разработки программного обеспечения для оценки опасных состояний человека, которая учитывает в том числе и эмоциональную нестабильность. Мониторинг ведется на основе анализа фото, видео, пульса и даже особенностей моргания глаз.
Нейросетевая модель была обучена распознаванию эмоций на двух больших базах данных ЭЭГ (FACED и SEED), которые находятся в открытом доступе для разработчиков. В целом в них содержится обезличенная информация о мозговой активности более 130 человек различного пола и возраста.
Для проверки корректности распознавания ученые самостоятельно собрали небольшой набор данных еще 16 человек при помощи компактного носимого на голове устройства для записи ЭЭГ. Параллельно они записали на видео этих респондентов для сравнения эффективности двух методов: распознавания эмоций по электроэнцефалограмме и по видеоданным.
«Одна из главных проблем, с которой мы столкнулись — необходимость учета различных паттернов ЭЭГ у разных респондентов. Мозговая активность каждого участника уникальна, что приводит к различиям в сигналах ЭЭГ даже при ощущении одних и тех же эмоциональных состояний. Несмотря на эти трудности, предложенная модель анализа ЭЭГ показала многообещающие результаты в классификации валентности эмоций. Точность составила в среднем от 70% до 80% в зависимости от человека», — отметил Алексей Кашевник.
Исследование проведено в рамках выполнения госзадания Минобрнауки России. Результаты опубликованы в научном журнале Big Data and Cognitive Computing (Q1).