Статьи в выпуске: 15
Статья посвящена разработке виртуальной среды испытаний подводного робототехнического комплекса с использованием цифрового двойника. Представлена архитектура системы, реализующая моделирование поведения подводного робототехнического комплекса, визуализацию в Unity и запуск тестовых сценариев. Описаны алгоритмы управления, обработки сенсорных данных и оценки поведения в условиях подводной среды. Работа направлена на повышение точности, надёжности и эффективности автономного функционирования подводного робототехнического комплекса за счёт предварительной виртуальной отладки.
Задача сжатия изображений остается актуальной и востребованной вследствие возрастающего объема изображений в современном информационном обществе. В статье рассмотрены методы сжатия без потерь информации статических изображений. При использовании методов сжатия самыми значимыми вопросами являются преобразование и восстановление информации, степень сжатия. Авторами предложен гибридный метод сжатия информации, основанный на методе Хаффмана, который позволяет при решении ряда задач максимально использовать возможности алгоритма Хаффмана и нивелировать его недостатки. В разработанном методе улучшение производится за счет первичной обработки изображения другим методом сжатия, а именно словарным методом LZW. Предложенный гибридный метод позволяет увеличить коэффициент сжатия информации по сравнению с исходными методами, а также минимизировать зависимость от особенностей входных изображений. Проведен анализ разработанного гибридного метода и его сравнение с исходными методами. Разработаны рекомендации для выбора оптимального метода (Хаффмана, LZW, гибридный метод) при решении различных задач.
В статье проведено исследование существующих автономных тренировочных окружений для обучения агентов информационной безопасности и выявления их актуальных функциональных возможностей и ограничений. Цели: введение в основные понятия и определение автоматизированной информационной защиты. Определение ключевых недостатков существующих решений; разработка нового тренировочного сценария на основе тренировочного окружения CybORG; оценка и описание процесса создания сценария на основе тренировочного окружения CybORG; создание рекомендаций для дальнейшего исправления функционала внедрения нового сценария; формирование рекомендаций для дальнейших исследований и разработки тренировочных окружений, направленных на повышение их эффективности в корпоративном и исследовательском плане в условиях постоянно развивающихся киберугроз. Методы: сбор и анализ информации о функционале, архитектуре и функциональных возможностях популярных платформ; аналитический метод, эксперимент по созданию собственного сценария на основе CybORG; проведение сравнительного анализа по ключевым параметрам; анализ практического применения платформ с точки зрения их корпоративного и пользовательского использования; систематизация выявленных недостатков при анализе для определения требований к доработкам; формирование рекомендаций для дальнейших исследований и совершенствования тренировочных окружений. Результаты: проведен сравнительный анализ пяти популярных платформ: Farland, NASimEmu, Yawning Titan, CybORG и CAGE Challenge. Выявление и предложение векторов доработок для недостатков текущих платформ для обучения агентов информационной безопасности. Проанализирована структура тренировочных окружений, проведено исследование об их функциональности и возможностях, предоставленных для других разработчиков. Обозначены основные понятия и определения автоматизированной информационной защиты. Разработан и реализован собственный сценарий на базе тренировочного окружения CybORG, для изучения процесса работы с функционалом создания нового сценария. Определен вектор дальнейших доработок в существующем функционале с целью использования приведенных платформ не только в академических целях, но и на корпоративном и пользовательском уровне. Выводы: анализ существующих тренировочных окружений подтвердил, что имеющиеся платформы не полностью соответствуют требованиям современных задач информационной безопасности, особенно в условиях быстро эволюционирующих кибератак. Статья предлагает новую основу для дальнейшего развития тренировочных окружений, которая может быть расширена с учетом будущих угроз и задач в области информационной безопасности.
В последние годы актуальность технологий компьютерного зрения значительно возросла, особенно в задачах анализа видеопотока, таких как обнаружение усталости, защита от подделок лиц и распознавание жестов. В известных подходах к оценке моделей, применяемых в этих задачах, широко используется метрика ROC AUC. Однако ее применение, основанное на покадровом анализе, имеет определенные ограничения. Они связаны с неустойчивостью результатов из-за нестабильных выходов модели между кадрами и отсутствием учета временных зависимостей в данных, что снижает точность оценки в реальных условиях использования стриминговых видео. Предлагаемый метод решает эти проблемы путем построения ROC-кривых для видео в целом, а не для отдельных кадров. Реализация этого процесса происходит посредством анализа выходов модели на каждом кадре, что позволяет более надежно различать положительные и отрицательные примеры на уровне всего видеофрагмента. Такой подход позволяет реалистично оценивать соотношение ложных срабатываний и полноты, а также улучшает чувствительность моделей за счет подбора более релевантных порогов классификации. Таким образом, новый метод предлагает более релевантную оценку моделей для потоковой обработки видео, обеспечивая более точное распознавание событий и их контекстуальную интерпретацию, что особенно важно в критически значимых приложениях.
Промышленный интернет вещей как технологическая основа цифровой трансформации производственных экосистем сталкивается с фундаментальными вызовами в области обеспечения надежности передачи данных. Актуальность исследования обусловлена экспоненциальным ростом внедрения киберфизических систем в условиях четвертой промышленной революции, где устойчивость информационных потоков становится критическим фактором производственной безопасности. Цель работы заключается в систематизации ключевых рисков передачи данных в гетерогенных промышленных сетях и разработке комплексной стратегии повышения их отказоустойчивости. В исследовании применен метод многоуровневого анализа, включающий оценку структурной гетерогенности сетей, спектральных характеристик каналов связи и деградационных процессов в аппаратных компонентах. Результаты исследования, полученные методом спектрального анализа и моделирования деградационных процессов, подтвердили нелинейную зависимость частоты сбоев от индекса гетерогенности сетей (H > 0,72). Пороговые значения электромагнитной интерференции (> −18 дБ) установлены на основе натурных испытаний в металлургических комплексах. Практическая значимость работы подтверждается рекомендациями по интеграции адаптивных алгоритмов, эффективность которых оценена через имитационное моделирование, показавшее снижение эксплуатационных рисков на 38 ± 2 %.
Для любой современной компании необходимо обеспечивать качественное управление процессами информационной безопасности в связи с распространением кибератак на организации и появлением новых угроз. Для этого требуется использование наиболее точного набора метрик для оценки показателей защищенности компонентов информационной системы и информационной системы в целом. Информационные системы, применяемые в компаниях, являются многокомпонентными и включают в себя значительное число объектов и связей, что необходимо учитывать при проведении оценки защищенности и проектировании системы защиты информации. Существующие методы оценки не учитывают в полной мере особенности структуры информационной системы, фокусируясь только на реализацию отельных мер защиты и наличие в анализируемой системе конкретных средств защиты без учета вариантов конфигурации связей между элементами системы. В статье рассматривается реализация метода оценки уровня защищенности многокомпонентных корпоративных информационных систем с учетом их структуры и конфигурации отдельных элементов защиты. Предлагаемый метод оценки может быть реализован для компаний различного масштаба и широкого спектра сфер деятельности, имеющих распределенную корпоративную информационную инфраструктуру.
На сегодняшний день широко распространены позиционные локальные навигационные системы, которые решают ряд практических задач: мониторинг сотрудников на предприятиях, координатное обеспечение беспилотных летательных аппаратов в помещениях и на открытых пространствах. Однако проблема таких систем заключается в том, что, когда потребитель выходит за пределы рабочей зоны, система не способна обеспечить заданную точность координатных определений. В качестве решения данной проблемы можно предложить обеспечение бесшовной навигации, использующей интеграцию локальной навигационной системы с приемником глобальной навигационной спутниковой системы. Стоит отметить, что существующих решений очень мало и они не затрагивают аппаратную часть приборов, а работают с уже готовыми измерениями от приемника глобальной навигационной спутниковой системы и локальной навигационной системы. В данной статье представлен разработанный метод синхронизации шкал времени приемника глобальной навигационной спутниковой системы и устройства, использующего сверхширокополосные радиосигналы. Синтезирован алгоритм оценки смещения шкал времени. Предложенный метод синхронизации шкал позволяет обеспечивать бесшовную навигацию и совместную обработку измерений и устройства, использующего сверхширокополосные радиосигналы, и приемника глобальной навигационной спутниковой системы.
В статье рассматриваются вопросы оптимального размещения спасательных подразделений Поисково-спасательной службы Санкт-Петербурга в целях повышения безопасности людей на акватории. Предлагается новый подход к решению задачи оптимального размещения на акватории сил и средств поисково-спасательной службы, имеющий универсальный характер, так как применим к различным акваториям. Проведенный анализ научных трудов и литературы показывает, что научные исследования по указанной теме практически не проводились, не говоря уже о создании математических моделей, позволяющих решить вопросы оптимального размещения на акватории спасательных подразделений. Вопросы взаимного расположения спасательных сил и средств в существующих международных и отечественных научных работах, международных конвенциях и литературе рассматриваются только применительно к процессу поиска, то есть непосредственно в ходе проведении поисковых и спасательных операций на акваториях. Разработанная математическая модель ориентирована на максимизацию вероятности спасения терпящих бедствие людей на водных объектах в зимний период. Конкретная модель строится на примере субъекта Санкт-Петербург. Для построения модели был проведен сбор статистических данных о гибели людей на водных объектах Санкт-Петербурга с 2014 года и проведен статистический анализ показателей гибели людей на водных объектах и возникновения происшествий с людьми. На основании математической модели разработана компьютерная программа, представляющая из себя архив, состоящий из нескольких файлов, написанных на языке Python3 с использованием сторонних библиотек и папок с нужными ресурсами. На основе выполненных расчетов получены рекомендации по совершенствованию инфраструктуры Поисково-спасательной службы Санкт-Петербурга.
Ценность информации рассмотрена как ее комплексная качественная характеристика, интегрирующая ряд частных показателей, влияющих на целесообразность ее использования в рамках инновационной деятельности. Показано, что независимые подходы к определению обобщенного показателя качества информации с позиций теории эффективности, с одной стороны, и экономики качества – с другой приводят к практически эквивалентным выводам. Выявлена практическая проблема прогнозирования ожидаемой ценности информации, обусловленная апостериорным характером применимости критерия ценности информации Харкевича, притом что критерий минимума эвристик нацеливает на использование рациональных моделей принятия решений, требующих больших затрат вычислительных ресурсов и времени. Обсуждены подходы к разрешению этой проблемы.
В статье рассматривается актуальная проблема бинаризации полутоновых изображений, играющая ключевую роль в системах компьютерного зрения и распознавания образов. Традиционные методы бинаризации, основанные на глобальных пороговых значениях, демонстрируют существенные ограничения при обработке изображений с неравномерным освещением, шумами и сложной текстурной структурой. Цель исследования – разработка и теоретическое обоснование метода локальной пороговой фильтрации, учитывающего пространственные характеристики обрабатываемых областей изображения. Предложенный подход основан на адаптивном выборе порогового значения для каждого пикселя в зависимости от статистических параметров его окрестности, что позволяет динамически корректировать критерии бинаризации. Отличительной особенностью разработанного метода является применение многомасштабного анализа структурных элементов изображения с последующей оптимизацией локальных порогов на основе минимизации функционала ошибки. Экспериментальная верификация алгоритма на наборе тестовых изображений различной сложности продемонстрировала повышение точности бинаризации на 12…18 % по сравнению с известными методами, что подтверждает перспективность его применения в задачах сегментации медицинских изображений, анализа документов и промышленных системах контроля качества.
В работе выполнен анализ классического метода градиентного спуска и предложен способ динамического изменения шага обучения на основе вычисляемых параметров τ и p. Основной акцент сделан на алгоритме, который позволяет вычислять оптимальные значения параметров τ и p для минимизации времени обучения. Эксперименты демонстрируют, как изменения этих параметров влияют на скорость обучения для различных топологий нейронных сетей и функций активации. Результаты моделирования показывают, что правильный выбор τ и p может значительно сократить временные затраты при обучении нейронных сетей с фиксированной структурой. Использование этих параметров позволяет улучшить процесс обучения, предотвращая застревание в локальных минимумах и обеспечивая баланс между скоростью обучения и точностью результата. Исследования продемонстрировали эффективность адаптивного подхода при различных топологиях нейронных сетей и функциях активации. Представленные графики и численные расчёты показывают зависимость средней скорости обучения от выбранных параметров.
В настоящей статье исследуются существующие научные труды, связанные с графовыми нейронными сетями, такими как Graph Convolution Network (GCN, сверточная графовая нейронная сеть), Graph Attention Network (GAT, графовая нейронная сеть с механизмом самовнимания), Graph Sage, Physics-Informed Neural Networks (PINN, физически информированная нейронная сеть), и методы численной оптимизации, основанные на вычислениях производных: градиентный спуск, стохастический градиентный спуск, метод Ньютона, Adam, AdamW, AdaGrad, метод роя частиц, квазиньютоновский метод численной оптимизации L-BFG S. Рассматриваются различные архитектурные подходы при моделировании таких нейронных сетей, как полносвязные нейронные сети (FCNN), сверточные нейронные сети (CNN), нейронные сети, основанные на архитектуре глубокого нейронного оператора (DeepONet), их плюсы и минусы, сферы жизнедеятельности, в которых они применимы, например, рекомендательные системы и задачи комбинаторной оптимизации. Также определяются основные положения, связанные с методами численной оптимизации, которые используются для обучения созданных моделей, выделяются их сильные и слабые стороны и вариации, направленные на улучшение качеств того или иного метода. Цель работы – уточнение, систематизация и анализ объема существующей научной литературы в выбранных областях для определения возможности переосмысления и развития существующих методов численной оптимизации с использованием моделей на основе графовых нейронных сетей.
Радиотелескопы большого диаметра (32…70 м) являются стандартным инструментом для исследования космоса радиотехническими методами. В настоящее время ведутся исследования по замене таких антенн антенным полем, состоящим из элементов меньшего диаметра, с целью уменьшения стоимости системы и упрощения ее обслуживания. Однако при построении таких полей из соотношения длины волны (частоты) и физических размеров элементов получается, что межэлементное расстояние больше половины длины волны, то есть антенное поле является протяженным. В протяженных полях наблюдаются сторонние максимумы, отличные от главного луча, – боковые лепестки. Важной задачей является уменьшение уровня боковых лепестков. Снижение уровня боковых лепестков возможно за счет амплитудно-фазового распределения или (и) за счет изменения геометрической структуры антенного поля. В данной статье рассматривается второй вариант, поскольку все элементы подразумеваются идентичными. Разработан генетический алгоритм, который позволяет находить расположение антенных элементов относительно друг друга для минимизации уровня боковых лепестков. Благодаря генетическому алгоритму возможно улучшить показатель уровня боковых лепестков на 15 % по сравнению с полностью случайной решеткой. Эффект генетического алгоритма равноценен добавлению в решетку 20…30 элементов, то есть благодаря ему можно уменьшить стоимость системы и использовать ее эффективней для радиолокации.
Аннотация. В работе представлен обзор метода геометрического моделирования в разработке цифровых двойников, дан анализ теоретических основ, его роли в создании цифровых двойников, методологии разработки цифрового двойника с его использованием, проблем и вызовов при использовании метода, а также рассмотрены перспективы развития данной технологии.
В статье рассматривается задача упрощения геометрических контуров с использованием алгоритма Рамера – Дугласа – Пекера (РДП, RDP) для оптимизации обработки данных дистанционного зондирования. Исследование направлено на решение проблемы избыточной детализации векторных кривых, характерной для результатов работы алгоритмов компьютерного зрения (в частности, OpenCV), где контуры часто содержат плотные группы точек, не несущие значимой геометрической информации. Предложен комбинированный подход, сочетающий классический алгоритм RDP с предварительной кластеризацией локальных скоплений точек. Это позволяет сократить количество вершин контура при сохранении его ключевых топологических и геометрических характеристик. В качестве практического примера рассматривается построение упрощенного контура Азовского моря для ускорения обработки спутниковых снимков.