Архив статей журнала

КЛАССИФИКАЦИЯ ПРОСТРАНСТВЕННО-ВРЕМЕННЫХ ПАТТЕРНОВ НА ОСНОВЕ НЕЙРОМОРФНЫХ СЕТЕЙ (2024)
Выпуск: Т. 23 № 3 (2024)
Авторы: Гунделах Филипп Викторович, Станкевич Лев Александрович

Эта работа посвящена проблемам разработки нейроморфных классификаторов пространственно-временных паттернов, а также их применению в нейроинтерфейсах для решения задачи управления робототехническими устройствами. Рассматриваются классификаторы пространственно-временных паттернов на основе нейронных сетей, метода опорных векторов, глубоких нейронных сетей, римановой геометрии. Проводится сравнительное исследование этих классификаторов на точность многоклассового распознавания электроэнцефалографических сигналов, показывающих зависимую от времени биоэлектрическую активность в различных зонах мозга при воображении разных движений. Показано, что такие классификаторы могут обеспечить точность 60-80% при распознавании от двух до четырех классов воображаемых движений. Предложен новый тип классификатора на основе нейроморфной сети, биоподобные нейроны которой построены на модели Ижикевича. Исходный электроэнцефалографический сигнал кодируется в импульсные потоки на основе алгоритма временного кодирования. Предложенная нейроморфная сеть обрабатывает импульсные входные последовательности и формирует на выходах импульсные потоки разной частоты. Обучение сети проводится по размеченной информации, содержащей примеры правильного распознавания нужных классов паттернов воображаемых движений с применением алгоритма Supervised STDP. Распознанный класс паттерна воображаемого движения определяется по максимальной частоте импульсного потока выходной последовательности. Нейроморфный классификатор показал среднюю точность классификации 90% для 4-х классов воображаемых двигательных команд, а максимальная точность составила 95%. Путем моделирования задачи управления роботом в виртуальной среде показано, что такая точность классификации достаточна для эффективного применения классификатора в составе неинвазивного интерфейса «мозг-компьютер» при бесконтактном управлении робототехническими устройствами.

Сохранить в закладках
INTELLIGENT EYE GAZE LOCALIZATION METHOD BASED ON EEG ANALYSIS USING WEARABLE HEADBAND (2024)
Выпуск: Т. 23 № 2 (2024)
Авторы: Кашевник Алексей Михайлович, Романюк Владимир Русланович

В стремительно развивающейся цифровой эпохе интерфейсы человеко-машинного взаимодействия непрерывно совершенствуется. Традиционные методы взаимодействия с компьютером, такие как мышь и клавиатура, дополняются и даже заменяются более интуитивными способами, которые включают технологии отслеживания глаз. Обычные методы отслеживания глаз используют камеры, которые отслеживают направление взгляда, но имеют свои ограничения. Альтернативным и многообещающим подходом к отслеживанию глаз является использование электроэнцефалографии, техники измерения активности мозга. Исторически ЭЭГ была ограничена в основном лабораторными условиями. Однако мобильные и доступные устройства для ЭЭГ появляются на рынке, предлагая более универсальное и эффективное средство для регистрации биопотенциалов. В данной статье представлен метод локализации взгляда с использованием электроэнцефалографии, полученной с помощью мобильного регистратора ЭЭГ в виде носимой головной повязки (компании BrainBit). Это исследование направлено на декодирование нейрональных паттернов, связанных с разными направлениями взгляда, с использованием продвинутых методов машинного обучения, в частности, нейронных сетей. Поиск паттернов выполняется как с использованием данных, полученных с помощью носимых очков с камерой для отслеживания глаз, так и с использованием неразмеченных данных. Полученные в исследовании результаты демонстрируют наличие зависимости между движением глаз и ЭЭГ, которая может быть описана и распознана с помощью предсказательной модели. Данная интеграция мобильной технологии ЭЭГ с методами отслеживания глаз предлагает портативное и удобное решение, которое может быть применено в различных областях, включающих медицинские исследования и разработку более интуитивных компьютерных интерфейсов.

Сохранить в закладках