Статья посвящена исследованию возможностей применения нейронных сетей для анализа больших данных в режиме реального времени в сфере информационной безопасности. Актуальность темы обусловлена стремительным ростом объемов генерируемых данных, усложнением методов кибератак и необходимостью разработки новых эффективных подходов к защите информации. В работе подробно рассматриваются ключевые задачи, решаемые с помощью нейросетевых технологий, включая обнаружение аномалий в сетевом трафике, предотвращение распределенных атак типа DDoS, классификацию вредоносного программного обеспечения и прогнозирование новых киберугроз. Особое внимание уделяется уникальным преимуществам нейронных сетей, таким как способность обрабатывать экстремально большие объемы разнородных данных, выявлять сложные неочевидные паттерны атак, непрерывно обучаться и адаптироваться к быстро меняющимся условиям киберсреды. В работе использованы методы глубокого обучения, включая сверточные и рекуррентные нейронные сети, для анализа больших данных и выявления киберугроз. Применены подходы к обработке данных в реальном времени и оценке устойчивости моделей. Проведенное исследование демонстрирует, что современные нейросетевые архитектуры обладают значительным потенциалом для революционного преобразования систем информационной безопасности. Ключевыми преимуществами являются сверхвысокая скорость обработки потоковых данных, способность детектировать ранее неизвестные типы атак благодаря выявлению сложных корреляций, а также возможность прогнозирования угроз на основе анализа исторических данных. Однако исследование также выявило серьезные технологические вызовы: чрезмерную потребность в вычислительных ресурсах для обучения сложных моделей, проблему “черного ящика” при интерпретации решений, уязвимость самих нейросетевых моделей к специализированным атакам (adversarial attacks), а также этические аспекты автоматизированного принятия решений в кибербезопасности. В статье представлены успешные кейсы внедрения, включая системы обнаружения вторжений нового поколения и платформы анализа вредоносного кода. Перспективными направлениями дальнейших исследований авторы видят разработку энергоэффективных нейросетевых моделей, создание методов объяснимого ИИ для безопасности и развитие адаптивных систем, способных эволюционировать вместе с киберугрозами. Полученные результаты представляют ценность для специалистов по кибербезопасности, разработчиков защитных решений и исследователей в области искусственного интеллекта.
Идентификаторы и классификаторы
В эпоху цифровой трансформации объемы данных, генерируемые устройствами, приложениями и пользователями, растут экспоненциально. Особую значимость анализ больших данных приобретает в сфере кибербезопасности, где оперативное выявление угроз и аномалий становится критически важным для защиты инфраструктуры. Традиционные методы анализа, такие как сигнатурные подходы и статистические модели, зачастую не справляются с обработкой огромных объемов информации в режиме реального времени, а также не способны адаптироваться к новым и неизвестным угрозам.
Список литературы
1. Воронцов К.В. Машинное обучение и искусственные нейронные сети / К.В. Воронцов. - М.: ДМК Пресс, 2020. - 448 с. 978-5-97060-799-1. ISBN: 978-5-9706-0799-1
2. Горбань А.Н., Дунин-Барковский В.Л. Нейронные сети: обучение, организация и применение / А.Н. Горбань, В.Л. Дунин-Барковский. - М.: ИПРЖР, 2018. - 292 с. ISBN: 978-5-93121-381-8
3. Корнеев В.В. Big Data в информационной безопасности: анализ угроз в реальном времени // Прикладная информатика. - 2021. - № 4. - С. 45-58. -. DOI: 10.25791/pfim.04.2021.1245
4. Соколов И.А., Петров Д.Ю. Применение LSTM-сетей для обнаружения DDoS-атак в потоковых данных // Информатика и её применения. - 2022. - Т. 16, № 3. - С. 72-83. -. DOI: 10.14357/19922264220308
5. Иванов А.М., Кузнецов С.П. Интеграция Apache Kafka и нейросетевых моделей для анализа кибератак // Труды международной конференции “Цифровая трансформация-2023”. - СПб.: Изд-во Политехнического университета, 2023. - С. 112-125.
6. Романова О.Л., Тимофеев А.В. Этика искусственного интеллекта в контексте информационной безопасности // Философия и наука. - 2021. - № 12. - С. 64-75. -. DOI: 10.15372/PS20211206
7. Бабичева М.В., Третьяков И.А. Применение методов машинного обучения для автоматизированного обнаружения сетевых вторжений // Вестник Дагестанского государственного технического университета. Технические науки. - 2023. - Т. 50, № 1. - С. 53-61. - -. DOI: 10.21822/2073-6185-2023-50-1-53-61 EDN: MGBAGF
8. Поздняк И.С., Макаров И.С. Модели обнаружения атак с использованием методов машинного обучения // Вестник Российского нового университета. Серия: Сложные системы: модели, анализ и управление. - 2024. - № 1. - С. 99-109. - -. DOI: 10.18137/RNU.V9187.24.01.P.99 EDN: MNMSYZ
9. Бабичева М.В., Третьяков И.А. Применение методов машинного обучения для автоматизированного обнаружения сетевых вторжений // Вестник Дагестанского государственного технического университета. Технические науки. - 2023. - Т. 50, № 1. - С. 53-61. - -. DOI: 10.21822/2073-6185-2023-50-1-53-61 EDN: MGBAGF
10. Харрисон М. Машинное обучение: карманный справочник. Краткое руководство по методам структурированного машинного обучения на Python / Пер. В.А. Коваленко. - СПб.: Диалектика, 2020. - 320 с.
Выпуск
Другие статьи выпуска
В статье представлен способ автоматизированного анализа аэроснимков с беспилотных летательных аппаратов (БПЛА), ориентированный на повышение безотказности технических систем и отслеживание изменений в природных и техногенных процессах. Цель работы - создание алгоритма, обеспечивающего безошибочное обнаружение отклонений и прогнозирование угроз сбоев на основе обработки изображений. Методика подразумевает применение индекса структурного соответствия (SSIM) и средней квадратичной погрешности (MSE) для оценки пространственных вариаций между смежными сегментами съемок. Предложенный подход отличается высокой стабильностью к переменам освещенности, небольшими вычислительными издержками и возможностью встраивания в автономные комплексы БПЛА. Работа базируется на компьютерном моделировании и статистическом разборе точности выявления отклонений. Алгоритм был опробован на различных массивах аэроснимков с использованием методов машинного зрения, математической статистики для оценки результативности предлагаемого способа. Итоги - разработка и апробация алгоритма, построении тепловых карт SSIM и MSE, а также оценке точности и достоверности способа. Полученные сведения подтверждают его действенность в автоматизированном мониторинге инфраструктурных объектов и оценивании экологических рисков. Сфера использования созданного способа охватывает автоматизированный надзор за инженерными сооружениями, контроль состояния сельскохозяйственных земель, экологический контроль, разбор последствий стихийных бедствий. Способ может быть интегрирован в интеллектуальные системы управления безотказностью технических объектов. Таким образом, разработанный алгоритм позволяет существенно увеличить безошибочность обнаружения отклонений, минимизировать влияние внешних обстоятельств и автоматизировать процесс обработки аэроснимков. Его применение способствует повышению безотказности технических систем и снижению вероятности сбоев за счет заблаговременного выявления потенциальных угроз. Научная новизна: создание нового способа оценки пространственных вариаций на основе комбинации индекса структурного соответствия (SSIM) и средней квадратичной погрешности (MSE), что обеспечивает высокую безошибочность выявления отклонений. В отличие от традиционных способов анализа изображений, предложенный алгоритм характеризуется стабильностью к изменению условий съемки, его вычислительная эффективность позволяет применять его в режиме реального времени. Кроме того, способ интегрируется в системы автономного мониторинга, расширяя возможности интеллектуального разбора данных с БПЛА. Полученные результаты и предложенные решения могут быть использованы для совершенствования технологий автоматизированного контроля состояния объектов и анализа динамики природных процессов.
Настоящее исследование посвящено анализу пространственно-временных закономерностей движения объектов на аэрофотоснимках с использованием метода оптического потока. В условиях развития технологий дистанционного зондирования и распространения БПЛА возрастает необходимость точного и автоматизированного анализа динамики природных и антропогенных процессов. Основное внимание в работе уделяется детальному изучению направленности и интенсивности движения на изображениях высокой разрешающей способности. Рассматриваются существующие методы оценки оптического потока, включая классические подходы Лукаса-Канаде и Хорна-Шанка, а также плотный оптический поток по Фарнебаку. Последний применяется как базовый метод для построения векторных полей скорости, на основе которых производится анализ распределения движения по сегментам изображения, визуализация направлений и построение тепловых карт. Предложенный подход позволяет выявлять структурные закономерности и локальные особенности движения, что особенно актуально для мониторинга состояния инфраструктурных объектов и оценки экологических рисков. Также в работе показано, что медианные оценки скорости более устойчивы к шумам и локальным выбросам, чем средние значения, что повышает надежность анализа. Метод исследования основан на вычислении плотного оптического потока методом Фарнебека с последующей статистической обработкой характеристик скорости и направлений движения между сегментами изображения. Научная новизна работы заключается в разработке комплексного подхода к анализу пространственно-временных характеристик движения на аэрофотоснимках с использованием плотного оптического потока, рассчитанного методом Фарнебака. В отличие от традиционных методов, ориентированных на глобальную оценку движения, предложенная методика акцентирует внимание на локальных закономерностях, позволяя проводить детализированную сегментную оценку направленности и интенсивности потока. В исследовании впервые интегрированы количественные и визуальные методы анализа: гистограммы, тепловые карты, расчеты медианных и средних значений скорости, метрики структурного сходства (SSIM) и среднеквадратичной ошибки (MSE) между сегментами изображения. Такой подход позволяет выявлять аномалии движения, определять участки с высокой динамикой и оценивать степень структурной стабильности объектов. Метод адаптирован к специфике данных с БПЛА и не требует обучения на больших выборках, что делает его применимым в условиях ограниченных вычислительных ресурсов. Полученные результаты имеют практическую ценность для автоматизации мониторинга инфраструктур и оценки экологических рисков.
Объектом исследования являются веб-серверы и их поведение в условиях высокоинтенсивных распределённых атак типа «отказ в обслуживании» (DDoS), нарушающих доступность сервисов и устойчивость инфраструктур. В качестве предмета исследования рассматриваются современные методы защиты серверных приложений от DDoS-угроз, включая анализ трафика, фильтрацию по частоте запросов, межсетевые экраны (файрволы) и облачные решения. Подробно анализируется эффективность различных технологий защиты, таких как Rate Limiting, ModSecurity, Google Cloud Armor и Cloudflare, а также их интеграция с традиционными средствами - межсетевыми экранами, системами предотвращения вторжений (IPS) и прокси-серверами. В рамках исследования разработан тестовый сервер на языке Go, имитирующий поведение реального веб-приложения с логированием и сбором статистики. Для моделирования DDoS-атак использован инструмент MHDDoS, обеспечивающий широкое покрытие типов угроз: от UDP и SYN Flood до HTTP Flood и Slowloris. Методы исследования включают эмуляцию атак на сетевом и прикладном уровнях трафика, нагрузочное тестирование, сбор метрик (процент заблокированных запросов, среднее время отклика, нагрузка на CPU и RAM) и сравнительный анализ эффективности решений. Научная новизна исследования заключается в разработке и применении экспериментальной модели имитации DDoS-атак с использованием специализированного Go-сервера, что позволило в реалистичных условиях оценить эффективность современных локальных и облачных средств защиты. Анализ реальных кейсов демонстрирует эффективность адаптивных стратегий против современных сложносоставных атак. Выводы подчёркивают необходимость активного подхода к безопасности, учитывающего как технологические, так и организационные меры защиты. Полученные результаты имеют практическую ценность для специалистов по кибербезопасности, системных администраторов и разработчиков защитных решений, предоставляя им методическую основу для создания устойчивых к DDoS веб-инфраструктур. Работа также обозначает перспективные направления для дальнейших исследований в области интеллектуальных систем обнаружения и нейтрализации атак.
С развитием цифровых технологий, искусственного интеллекта и больших данных, спортивная индустрия сталкивается с растущей потребностью в продвинутых аналитических инструментах. В футболе, где стратегическое и тактическое планирование играют ключевую роль, применение технологий компьютерного зрения и машинного обучения для анализа игр становится не просто трендом, а необходимостью для поддержания конкурентоспособности. Использование компьютерного зрения и машинного обучения в спортивной аналитике позволяет автоматически извлекать значимые данные из видео матчей, что значительно повышает скорость и точность анализа по сравнению с традиционными методами. Такие технологии могут предоставить тренерам детальные отчеты о движениях, позиционировании и тактике игроков в реальном времени. Целью является создание системы, которая позволит проводить комплексный анализ футбольных матчей с использованием последних достижений в области искусственного интеллекта и компьютерного зрения. Основной метод - обзор и анализ публикаций по теме исследования; анализ современных технологий, позволяющих автоматически обрабатывать видеоданные. Основная методология - концепция разработки проекта PLAY VISION AI как способ просмотра спортивных матчей с помощью искусственного интеллекта для оценки эффективности игровых стратегий. Актуальность данной работы обусловлена максимальной модификацией современных технических средств для улучшения аналитических возможностей в спорте. Авторами разработаны алгоритмы для калибровки и коррекции искажений видео, полученного с футбольных матчей; разработаны методы детекции и трекинга опорных точек и игроков на видео; реализованы алгоритмы для сопоставления изображений с реальными координатами на поле, а также определения позиций игроков; выполнена интеграция разработанных методов в единую систему с интерфейсом для конечных пользователей. Разработанная система PLAY VISION AI обеспечит тренерам и аналитикам инструменты для оценки эффективности игровых стратегий и подготовки к предстоящим матчам. Также будет способствовать дальнейшему развитию технологий анализа в спорте, открывая новые перспективы для исследований и практического применения.
Представленная работа посвящена разработке интеллектуальной системы управления микроклиматом зданий (система класса HVAC). Исследование направлено на решение проблемы недостаточной адаптивности традиционных подходов (PID-регуляторы, системы, основанные на знаниях) в условиях динамически изменяющихся параметров внутренней среды здания. Основное внимание уделено созданию гибридного метода, сочетающего преимущества функционального программирования и искусственного интеллекта. В работе рассматриваются вопросы энергоэффективности, точности поддержания комфортных условий для посетителей интеллектуального здания и устойчивости HVAC-системы к внешним возмущениям. Особое значение имеет задача минимизации эксплуатационных расходов при одновременном обеспечении безопасности и надёжности работы оборудования. Представленное исследование охватывает все этапы разработки программного средства - от проектирования его архитектуры до практической апробации. В основе исследования лежит подход функционального двойника, реализованного на языке Haskell. Использованы LSTM-сети для прогнозирования, генетические алгоритмы для оптимизации и RETE-алгоритм для обработки правил. Верификация проведена методом имитационного моделирования с генерацией 1440 точек данных. Научная новизна представленной работы заключается в применении теоретико-категориального подхода к моделированию функционального двойника, в котором каждое устройство (как сенсоры, так и исполнительные устройства) представлено как композиция чистых функций. Результаты показывают снижение энергопотребления на 14.7%, увеличение времени работы в комфортном диапазоне до 94.7% и трёхкратное сокращение числа переключения режимов функционирования HVAC-системы. Практическая значимость подтверждена снижением эксплуатационных расходов на 15% и повышением киберустойчивости за счёт использования иммутабельных структур данных. Выводы свидетельствуют о том, что сочетание функционального программирования с гибридным подходом в искусственном интеллекте обеспечивает баланс ключевых параметров системы. Предложенная архитектура может служить эталоном для интеграции IoT и киберфизических систем в рамках Индустрии 4.0.
Объектом исследования выступает организация перемещения объектов пользовательского интерфейса (User Interface, UI) в Android-приложениях. Предметом исследования является разработка программного решения для реализации поведения Drag&Drop в мобильных Android-приложениях с использованием современного фреймворка пользовательского интерфейса Jetpack Compose. Целью представленной работы является создание гибкого и интуитивно понятного механизма взаимодействия пользователя с интерфейсом мобильных Android-приложений. Основные результаты исследования включают: 1. Разработку набора Composable функций для управления Drag&Drop состоянием объектов пользовательского интерфейса. 2. Объединение поведения «источника» и «получателя» перемещаемых UI-объектов с возможностью декорирования. 3. Преодоление ограничений штатных инструментов фреймворка Jetpack Compose. 4. Создание механизма обработки пользовательских жестов перемещения. 5. Формирование универсального подхода к реализации интерактивного взаимодействия с элементами интерфейса. Методология основана на применении архитектурного паттерна MVI (Model-View-Intent), который обеспечивает эффективное управление состоянием интерфейса, и использовании объектно-ориентированных паттернов проектирования, в частности, паттерна “декоратор”. Методы исследования включают анализ существующих подходов к реализации Drag&Drop, проектирование программного решения, разработку прототипа и его апробацию в рамках мобильного приложения. Научная новизна исследования заключается в разработке инновационного подхода к организации Drag&Drop взаимодействия, который позволяет преодолеть ограничения штатных инструментов фреймворка Jetpack Compose. Предложенное авторами решение характеризуется: - полной изолированностью компонентов Drag&Drop; - возможностью декорирования перемещаемых UI-объектов; - гибкой настройкой поведения источника и приемника объектов интерфейса; - отсутствием жестких связей между компонентами пользовательского интерфейса. Практическая значимость работы заключается в разработке инструментария, который может быть успешно применен в различных мобильных программных проектах, требующих реализации сложных пользовательских взаимодействий. Выводы исследования демонстрируют эффективность предложенного решения в преодолении существующих ограничений Jetpack Compose и открывают новые возможности для создания более динамичных и удобных пользовательских интерфейсов в мобильных приложениях.
Для ряда задач классическим методам структурного программирования отдается предпочтение перед методами объектно-ориентированного программирования. Эти предпочтения характерны для детерминированного мира и в системах, ориентированных на машинное представление. Для таких задач разрабатывался модульный язык программирования Оберон, имеющий минималистскую реализацию, существенно отличающуюся от большинства программных средств, стремящихся к максимизации числа поддерживаемых функций. Использование инструментального подхода вместо объектно-ориентированного предлагалось ранее для решения проблем детерминированного мира. Принцип сепарации кода от данных предполагает, что жизненный цикл данных является независимо управляемым, а время жизни превышает по длительности таковое для кода. Данная статья посвящена разработке и анализу ареальных типов данных в контексте инструментального программирования. Ареальные типы данных обеспечивают ортогональную персистентность и интегрируются с кодами, определенными в иерархии типов для инструментов. В качестве метода исследования интеграции ареальных типов используется разработка через тестирование, реализованная автором в компиляторе МультиОберон. Методы тестирования включали в себя создание тестовых случаев для проверки метаданных ссылок при установлении ареалов, сохранении и восстановлении данных при рестартах ПО. Ареальные ссылки реализованы как персистентные ссылки в ареальном массиве. Благодаря такой организации данных решена проблема сохранения ссылок в структурах данных при завершении и восстановлении ПО. Приведены структуры данных со ссылками, остающимися консистентными при рестартах ПО. Новизна ареальных типов данных заключается в том, что используются механизмы установки ареалов в типах вместо создания объектно-ориентированных разветвленных структур или шаблонов обобщенных классов. Работа со ссылками сочетает преимущества индексов и указателей. Такой подход позволяет реализовывать алгоритмы обобщенного программирования без использования зависимостей по данным, как в части наследования, так в части шаблонов. Приведен пример обобщенного алгоритма сортировки для ареальных типов. Новый тип данных отличается компактностью и структурной простотой по сравнению с динамическими объектами. Преимуществами предложенного подхода являются персистентность, эргодичность, компактность, строгая типизация. В отличие от традиционных подходов объектно-ориентированного и обобщенного программирования ареальные типы данных являются персистентными, не требуют восстановления ссылок после рестарта и используют меньше ресурсов.
В условиях стремительного роста масштабов и сложности информационных систем, вопросы эффективной интеграции и сопровождения микросервисных архитектур становятся всё более актуальными. Одной из ключевых проблем является обеспечение интероперабельности программных компонентов, что предполагает возможность надёжного обмена данными и совместного использования информации между различными сервисами, реализованными с использованием разнородных технологий, протоколов и форматов данных. В данной работе предметом исследования выступает формализация и построение интеллектуальной системы, обеспечивающей интероперабельность микросервисных компонентов в облачной инфраструктуре. Предложен формализованный подход, основанный на графовых, категориальных и алгебраических моделях, позволяющий строго описывать маршруты передачи данных, условия совместимости интерфейсов и процедуру автоматизированного согласования форматов взаимодействия. Введена операция согласования интерфейсов, обеспечивающая выявление необходимости использования адаптеров и преобразователей для интеграции различных сервисов. Особое внимание уделяется задаче построения универсального интерфейса, через который возможна маршрутизация любых потоков данных, что значительно упрощает процедуру масштабирования и доработки микросервисной системы. Разработанная архитектура системы охватывает этапы создания, публикации и развертывания контейнерных микросервисов, автоматическую проверку маршрутов передачи данных, а также динамическое управление состоянием сервисов на основе прогнозирования нагрузки с помощью моделей искусственного интеллекта. Применение предложенной методики позволяет существенно повысить гибкость, надёжность и масштабируемость инфраструктуры, снизить эксплуатационные затраты, а также автоматизировать процессы поддержки и интеграции новых компонентов. Предложенное решение основывается на формализованном подходе к обеспечению интероперабельности микросервисных компонентов в облачной инфраструктуре. В качестве основы используется графовая и категорная модель, позволяющая строго определить маршруты передачи данных и процедуры согласования интерфейсов между различными сервисами. Для унификации взаимодействия и повышения гибкости системы введена операция согласования интерфейсов, а также реализована возможность автоматизированного выявления необходимости применения адаптеров и преобразователей данных. Разработанный алгоритм интеллектуального прогнозирования нагрузки на сервисы позволяет динамически управлять состоянием компонентов и оперативно адаптировать инфраструктуру к изменяющимся условиям эксплуатации.
Современные информационные системы требуют масштабируемых архитектур для обработки больших данных и обеспечения доступности. Микросервисная архитектура, разделяющая приложения на автономные сервисы по бизнес-функциям, решает эти задачи. Однако оптимальная гранулярность микросервисов влияет на производительность, масштабируемость и управляемость. Неоптимальная декомпозиция приводит к антипаттернам, таким как избыточная мелкость или косметическая микросервисность, усложняя сопровождение. Цель исследования - сравнительный анализ методов определения гранулярности микросервисов для выявления подходов, обеспечивающих баланс производительности, гибкости и управляемости в высоконагруженных системах. Объект исследования - микросервисная архитектура высоконагруженных информационных систем, включая их структурные и функциональные характеристики, определяемые методами декомпозиции на автономные сервисы. Предмет исследования - методы определения гранулярности микросервисов (монолитная архитектура, Domain-Driven Design, Data-Driven Approach, Monolith to Microservices Approach). Применён экспериментальный подход, включающий реализацию приложения Task Manager в четырёх архитектурных конфигурациях. Нагрузочное тестирование проводилось с использованием Apache JMeter при нагрузке 1000 пользователей. Метрики производительности (время отклика, пропускная способность, CPU), доступности, масштабируемости, безопасности и согласованности собраны через Prometheus и обработаны с вычислением средних значений и стандартного отклонения. Научная новизна исследования заключается в разработке унифицированной методологии количественного анализа методов гранулярности микросервисов (монолит, DDD, Data-Driven, Monolith to Microservices), основанной на метриках (время отклика, пропускная способность, CPU, доступность, запуск, безопасность, ошибки), адаптированных для высоконагруженных систем. В отличие от качественных исследований, работа предлагает комплексный подход, включая реализацию приложения Task Manager и нагрузочное тестирование (Apache JMeter, Prometheus), решая проблему выбора оптимальной декомпозиции для повышения производительности и масштабируемости. Методология применима для автоматизации оценки архитектур в CI/CD. Монолит показал минимальное время отклика (0.76 с) и пропускную способность (282.5 запросов/с), но ограничен масштабируемостью. Data-Driven обеспечивает согласованность, DDD эффективен для сложных доменов, Monolith to Microservices имеет низкую производительность (15.99 с) из-за перегрузки авторизации. Ограничение - хост-система (8 ГБ RAM), снижающая масштабируемость. Рекомендации: оптимизировать сетевые вызовы в DDD, доступ к данным в Data-Driven, декомпозицию в Monolith to Microservices.
Предметом исследования является производительность рендеринга трёх современных фреймворков - React, Angular и Svelte - в типовых сценариях построения и обновления пользовательского интерфейса в веб приложениях. Объектом исследования являются сами фреймворки как комплексы технологических решений, включающие механизмы обнаружения изменений, виртуальные или компилируемые DOM структуры и сопутствующие оптимизации. Автор подробно рассматривает такие аспекты темы, как первичный и повторный рендеринг, операции обновления и удаления элементов, работа в линейных и глубоко вложенных структурах данных. Особое внимание уделяется практической значимости выбора фреймворка для коммерческих продуктов, где разница в производительности непосредственно влияет на конверсию, опыт пользователя и финансовую эффективность проекта. Описываются ключевые внутренние механизмы - виртуальный DOM React, детектор Angular и компилируемый код Svelte, - которые определяют их поведение в разных нагрузочных сценариях. Методология основана на автоматизированном бенчмарке: унифицированный набор тестовых сценариев выполняется клиентскими приложениями на React, Angular и Svelte, эталонном JavaScript решении и сервере оркестраторе Express JS; время операций фиксируется через performance. now в Chrome 126, критерий производительности - время до первой перерисовки. Новизна исследования заключается в комплексном лабораторном сопоставлении трёх фреймворков по четырём критически важным сценариям (первичный рендеринг, повторный рендеринг, обновление и удаление элементов) с учётом двух типов структур данных и привязкой к актуальным версиям 2025 года. Основными выводами проведённого исследования являются следующие: Svelte обеспечивает наибольшую производительность и лидирует при глубокой иерархии благодаря компиляции DOM операций; React показывает лучшие результаты при повторном обновлении длинных списков, используя оптимизированный алгоритм обнаружения изменений и ключи элементов; Angular гарантирует предсказуемость и архитектурную целостность, но увеличивает время перерисовки примерно на 60% из-за детектора изменений. Универсального лидера не существует; рациональный выбор должен опираться на аналитический профиль операций конкретного приложения, что и подтверждают результаты представленного эксперимента.
В статье рассматривается проблема обфускации промптов как способа обхода защитных механизмов в больших языковых моделях (LLM), предназначенных для обнаружения промпт-инъекций. Промпт-инъекции представляют собой метод атаки, при котором злоумышленники манипулируют входными данными, чтобы изменить поведение модели и заставить её выполнять нежелательные или вредоносные действия. Обфускация включает в себя различные методы изменения структуры и содержания текста, такие как замена слов синонимами, перемешивание букв в словах, вставка случайных символов и другие. Цель обфускации - затруднить анализ и классификацию текста, чтобы обойти фильтры и защитные механизмы, встроенные в языковые модели. В рамках исследования проводится анализ эффективности различных методов обфускации в обходе моделей, обученных на задачу классификации текста. Особое внимание уделяется оценке потенциальных последствий обфускации для безопасности и защиты данных. В исследовании используются различные методы обфускации текстов, которые применяются к промптам из датасета AdvBench. Эффективность методов оценивается на примере трёх моделей-классификаторов, обученных на задачу обнаружения промпт-инъекций. Научная новизна исследования заключается в анализе влияния обфускации промптов на эффективность языковых моделей в обнаружении промпт-инъекций. В ходе работы выявлено, что применение сложных методов обфускации увеличивает долю запросов, классифицируемых как инъекции, что подчёркивает необходимость тщательного подхода к тестированию безопасности больших языковых моделей. Выводы исследования указывают на важность баланса между сложностью метода обфускации и его эффективностью в контексте атак на модели. Чрезмерно сложные методы обфускации могут повысить вероятность обнаружения инъекций, что требует дальнейшего изучения для оптимизации подходов к обеспечению безопасности языковых моделей. Результаты работы подчёркивают необходимость постоянного совершенствования защитных механизмов и разработки новых методов обнаружения и предотвращения атак на большие языковые модели.
Статья представляет собой анализ современных методов обновления структуры Document Object Model (DOM) в популярных клиентских веб-фреймворках, таких как Angular, React и Vue. Основное внимание уделяется сравнению концепций Virtual DOM и Incremental DOM, которые лежат в основе архитектурных решений соответствующих фреймворков. Virtual DOM, применяемый в React и Vue, оперирует виртуальным деревом, сравнивает его версии с целью выявления различий и минимизации изменений в реальном DOM. Такой подход обеспечивает относительную простоту реализации реактивного интерфейса, однако сопровождается дополнительными затратами на вычисления и использование ресурсов. В отличие от него, Angular использует Incremental DOM, при котором отсутствует создание промежуточных структур: изменения применяются напрямую через механизм Change Detection. Этот подход позволяет добиваться высокой производительности за счёт точечных обновлений DOM-элементов без необходимости в виртуальном представлении. В исследовании применяется сравнительный анализ архитектурных подходов к обновлению DOM, основанный на изучении официальной документации, практических экспериментов с кодом и визуализации процессов рендеринга в Angular и React. Методология включает теоретическое обоснование, пошаговый разбор механизмов обновлений и оценку их влияния на производительность. Научная новизна статьи заключается в систематическом сопоставлении архитектурных подходов к обновлению DOM в ведущих фреймворках, с акцентом на внедрение сигнальной модели в Angular версии 17+. Подробно проанализировано влияние использования сигналов на отказ от библиотеки Zone. js и формирование более предсказуемой, детерминированной модели рендеринга, а также возможности управления производительностью на более низком уровне. Статья содержит не только теоретическое описание, но и практические примеры, раскрывающие поведение обновлений в реальных сценариях. Также рассматриваются нюансы шаблонной компиляции, работы функций effect() и computed(). Проведённое сравнение Virtual DOM и Incremental DOM позволяет выявить ключевые различия, оценить применимость подходов в зависимости от задач и уровня сложности проекта, а также предложить направления оптимизации фронтенд-архитектур.
Современные среды исполнения, такие как браузеры, Node. js и пр. предоставляют разработчикам инструменты, позволяющие выходить за рамки традиционного JavaScript. Объектом данного исследования выступает современный подход к созданию веб-приложений, в которых возможно выполнение и совместное использование компонентов, написанных на разных языках программирования, в результате применения WebAssembly. Предметом исследования является тестирование и анализ результатов тестов, направленных на измерение производительности JavaScript и WebAssembly-модулей в среде выполнения Node. js, с акцентом на сравнение эффективности выполнения вычислительных задач, взаимодействия с памятью, обработки данных и межъязыкового взаимодействия. Автор подробно рассматривает такие аспекты темы, как интеграция WebAssembly в приложения, оценка его преимуществ при решении ресурсоёмких задач, таких как обработка изображений, объективность, репрезентативность и воспроизводимость тестирования В работе используется прикладной, экспериментальный подход. Было произведено сравнение скорости выполнения операций при использовании чистого JavaScript и WebAssembly-модулей. Для оценки эффективности были использованы данные о времени ответа на запрос, о потреблении ресурсов системы приложением. Научная новизна данной работы заключается в разработке и теоретическом обосновании подходов к тестированию веб-приложений с использованием технологии WebAssembly. В отличие от большинства существующих исследований, сосредоточенных на производительности и безопасности WebAssembly в браузерной среде, в данной работе внимание акцентировано на автоматизированном тестировании WebAssembly-модулей вне браузера, что до настоящего времени оставалось слабо проработанным направлением. Предложен методологический подход к организации тестирования WebAssembly-модулей в среде выполнения Node. js, включая принципы структурирования тестов, интеграции с JavaScript-компонентами и анализ результатов выполнения. Такой подход позволяет учитывать специфику серверного окружения, где WebAssembly всё активнее применяется - в частности, при разработке высоконагруженных вычислительных модулей, кросс-языковой логики и безопасного изолированного исполнения. Научная новизна также заключается в выведении критериев, позволяющих оценивать пригодность тех или иных компонентов приложения для переноса в WebAssembly с точки зрения тестируемости, что даёт разработчикам дополнительный инструмент принятия архитектурных решений. Предложенные идеи подтверждены экспериментальной частью, включающей примеры реализации тестирования сценариев взаимодействия между WebAssembly и JavaScript.
Предметом исследования является управление доступом к каналам случайного доступа (Random Access Channel, RACH) в сетях узкополосного Интернета вещей (Narrowband Internet of Things, NB-IoT), испытывающих перегрузки при высокой плотности размещения устройств. Объектом исследования выступают процедуры динамического распределения слотов RACH с использованием методов машинного обучения. Основное внимание уделяется применению алгоритмов обучения с подкреплением (Reinforcement Learning, RL), в частности методов Q-learning и Deep Q-Network (DQN). Авторы детально рассматривают проблему перегрузки каналов и связанных с ней коллизий, приводящих к задержкам передачи данных и повышенному энергопотреблению устройств. Анализируется недостаточная эффективность традиционных статических методов управления слотами и обосновывается необходимость внедрения динамического подхода, способного адаптироваться к изменяющимся условиям сети. В исследовании использовались методы машинного обучения, включающие Q-learning и DQN, а также симуляционное моделирование в среде NS-3 с интеграцией RL-агента для динамического перераспределения RACH-слотов. Научная новизна исследования заключается в разработке и интеграции специализированного RL-агента, позволяющего осуществлять адаптивное распределение слотов RACH на основе текущего состояния сети NB-IoT. Основными выводами проведённого исследования являются подтверждённая высокая эффективность предложенного динамического подхода, обеспечившего снижение числа коллизий на 74%, увеличение числа успешных подключений на 16% и улучшение энергоэффективности устройств на 15% по сравнению с традиционными статическими методами. Перспективность дальнейших исследований состоит в масштабировании предложенного подхода на сети с большим числом устройств, изучении мультиагентных RL-подходов, экспериментальной проверке и интеграции разработанного метода с реальными сетями NB-IoT, а также в разработке гибридных моделей управления, сочетающих алгоритмы обучения с подкреплением с другими методами машинного обучения.
Издательство
- Издательство
- НБ-МЕДИА
- Регион
- Россия, Москва
- Почтовый адрес
- 115114, г Москва, Даниловский р-н, Павелецкая наб, д 6А, кв 211
- Юр. адрес
- 115114, г Москва, Даниловский р-н, Павелецкая наб, д 6А, кв 211
- ФИО
- Даниленко Василий Иванович (ГЕНЕРАЛЬНЫЙ ДИРЕКТОР)
- Контактный телефон
- +7 (___) _______