Архив статей журнала
В статье рассматриваются вопросы реализации прототипа исследовательско-практического комплекса для автоматизации анализа аккаунтов пользователей в социальных сетях. Данный прототип используется в качестве инструмента для косвенной оценки выраженности психологических особенностей пользователей, их уязвимостей к социоинженерным атакам и выработки рекомендаций по защите от них. Прототип разработан на языке программирования Python 3.8 с применением веб-фреймворка Django 3.1, а также PostgreSQL 13.2 и Bootstrap 4.6. Цель работы заключается в повышении оперативности процесса извлечения информации из размещаемых в социальных сетях данных, позволяющей косвенно оценить психологические, поведенческие и иные особенности пользователей, и достигается через автоматизацию извлечения указанных данных и разработку инструментария для их анализа. Предметом исследования являются методы автоматизированного извлечения, предобработки, унификации и представления данных из аккаунтов пользователей социальных сетей в контексте их защиты от социоинженерных атак. Предложенный прототип приложения на основе веб-фреймворка Django решает задачу автоматизированного извлечения, предобработки, унификации и представления данных со страниц пользователей социальных сетей, что является одним из важных этапов в построении системы анализа защищенности пользователей от социоинженерных атак, опирающейся, в свою очередь, на синтез профиля пользователей. Теоретическая значимость работы заключается в комбинировании и апробации через автоматизацию разработанных ранее методов и подходов для восстановления пропущенных значений атрибутов аккаунта и сопоставления аккаунтов пользователей социальных сетей на предмет их принадлежности одному пользователю. Практическая значимость состоит в разработке прикладного инструмента, размещенного на поддомене sea.dscs.pro и позволяющего производить первичный анализ аккаунтов пользователей социальных сетей.
В статье представлена формальная модель многоагентных систем для федеративного обучения. Концепция федеративного обучения очень близка к многоагентным системам, поскольку агенты позволяют обучать модели машинного обучения на локальных устройствах, сохраняя при этом конфиденциальную информацию. Возможности агентов взаимодействовать друг с другом позволяют обобщать (агрегировать) такие модели и повторно их использовать. В работе описываются взаимодействие и координация агентов, которые должны осуществляться с учетом стратегий обучения: последовательно, когда модель обучается по очереди на каждом узле; централизованно, когда модели обучаются параллельно на каждом узле и агрегируются на центральном сервере; децентрализованно, когда обучение и агрегация выполняются на каждом из узлов. Выделены основные типы агентов, необходимые для выполнения полного цикла федеративного обучения: принимающий задачу от пользователя, собирающий информацию о среде, выполняющий планирование обучения, выполняющий обучение на узле с данными, предоставляющий информацию и доступ к данным, осуществляющий агрегацию моделей. Для каждого из агентов определены основные действия и типы сообщений, которыми они обмениваются. Проанализированы и описаны конфигурации размещения агентов для каждой из стратегий федеративного обучения. На основе предложенной формальной модели можно осуществлять разработку многоагентных систем, используемых для задач федеративного обучения, а на основе выделенных типов агентов и видов сообщений - платформы агентов, сами агенты и протоколы их взаимодействия.
В статье представлен метод классификации изображений с использованием, помимо базовой нейронной сети, дополнительной, способной адаптивно концентрироваться на классифицируемом объекте изображения. Задача дополнительной сети является задачей о контекстном многоруком бандите и сводится к предсказанию такой области на исходном изображении, при вырезании которой в процессе классификации возрастет уверенность базовой нейронной сети в принадлежности объекта на изображении правильному классу. Обучение дополнительной сети происходит с помощью методов обучения с подкреплением и стратегий достижения компромисса между эксплуатацией и исследованием при выборе действий для решения задачи о контекстном многоруком бандите. На подмножестве набора данных ImageNet-1K проведены различные эксперименты по выбору архитектуры нейронной сети, алгоритма обучения с подкреплением и стратегии исследования при обучении. Рассмотрены такие алгоритмы обучения с подкреплением, как DQN, REINFORCE и A2C, и такие стратегии исследования, как -жадная, -softmax, -decay-softmax и метод UCB1. Большое внимание уделено описанию проведенных экспериментов и обоснованию полученных результатов. Предложены варианты применения разработанного метода, демонстрирующие увеличение точности классификации изображений по сравнению с базовой моделью ResNet. Дополнительно рассмотрен вопрос о вычислительной сложности данного метода. Дальнейшие исследования могут быть направлены на обучение агента на изображениях, не задействованных при обучении сети ResNet.
В статье сделан обзор ключевых особенностей и преимуществ основных существующих подходов и систем обработки больших графов на персональном компьютере, таких как GraphChi, TurboGraph, GraphChi-DB и другие, а также распределенных систем, таких как Apache GraphX. Особое внимание уделено задачам, требующим в процессе вычислений существенных изменений в структуре графа, и особенностям реализации таких задач в системах обработки графов. Проведены сравнительные эксперименты с использованием известного алгоритма восстановления сети связей между узлами по наблюдаемому распространению инфекций среди населения или распространению новостей и мемов в социальных сетях. В используемом алгоритме для получения оценок изменяющейся во времени структуры и временной динамики предполагаемой сети применяется стохастический градиент. Алгоритм был реализован для моделей вычисления GraphChi и Apache Spark, измерена скорость выполнения для различных наборов реальных и синтетических данных, описаны ограничения для этих моделей вычисления, обнаруженные в процессе экспериментов. Для реализации GraphChi вычисления проведены на одиночном компьютере, для Apache Spark - на различном количестве серверов в кластере. Показано, что существующие системы разделяются на три класса: быстрые системы со статическим разбиением графа на разделы и дорогим переразбиением при существенных изменениях структуры; в среднем более медленные системы, способные эффективно обрабатывать большие объемы изменений; еще более медленные, но хорошо масштабируемые системы, компенсирующие низкую удельную производительность возможностью масштабировать вычисления на кластеры из большого количества узлов. Сделан вывод, что проблема эффективного хранения и обработки динамических графов в полной мере не решена и требует дополнительного исследования.
Предложена реализация программной платформы для создания нейросетевых моделей с их тестированием, используемых для формирования специализированных словарей автоматизированных систем. Она позволяет ускорить процесс поиска оптимального метода для разработки нейросетевой модели. В основе платформы лежит обзор существующих инструментов и методов, используемых для создания моделей анализа текстов и технологий виртуализации ПО. Авторами исследования разработана архитектура программной платформы для формирования специализированных словарей, обеспечивающая одновременное создание разных нейросетевых моделей в виртуальных контейнерах. Контейнерная виртуализация программных элементов, создающих и тестирующих нейросетевые модели, обеспечивает проведение всех математических расчетов по обработке текстовой информации, обучению и тестированию нейросетевой модели децентрализованно, параллельно и изолированно друг от друга. Обмен данными между виртуальными контейнерами, а также хранение результатов их работы осуществляются через специальную шину данных, представляющую собой дисковое пространство, к которому имеют доступ все контейнеры. Применение разработанной платформы позволит ускорить процесс поиска алгоритма создания специализированных словарей через проверку гипотез, основанных на использовании различных методов построения моделей. Ускорение процесса происходит благодаря параллельности и повторному использованию математических результатов общих этапов алгоритмов, математические расчеты которых проведены похожим алгоритмом. Это позволяет масштабировать и дробить процесс обучения за счет параллельного создания различных моделей, а также на уровне отдельных этапов создания моделей. Предложенная платформа была успешно применена для поиска локально-оптимального метода создания модели в текстах узкой тематики.
Предложен метод для прогнозирования некоторых угроз в сложных распределенных системах. Метод основан на интеллектуальном анализе и обработке больших разнородных данных, полученных в результате автоматического контроля изменения уровня воды в водных объектах и температуры воздуха в точке измерения. Такой контроль позволяет повысить эффективность планирования и реализации мероприятий по парированию подобных угроз. Будущее значение уровня воды в точке измерения выбирается по результатам обработки данных, накопленных за все предыдущие паводковые периоды. В качестве анализируемых данных используются измеренные в равноотстоящие моменты времени значения температуры воздуха и уровня воды, вычислительные значения изменения уровня воды и температуры воздуха, а также прогнозные значения (по официальным данным гидрометслужбы) изменения температуры воздуха. На основании вычисления ретроспективной частоты изменения этой температуры и уровня воды в соответствующей точке в качестве прогнозируемого значения предлагается выбрать то, которому соответствует максимальная частота появления такого сочетания измеряемых параметров. Результаты экспериментальной оценки точности прогнозирования уровня воды в водных объектах Республики Башкортостан в паводковый период 2021 г. подтверждают применимость предложенного метода прогнозирования для поддержки принятия решений по парированию угроз в сложных распределенных системах от резкого подъема воды даже при недостаточно автоматизированной системе наблюдений. При более широком изменении высокоавтоматизированных программно-аппаратных комплексов мониторинга паводковой ситуации существенно возрастает количество анализируемых и обрабатываемых программными средствами данных. Это, с одной стороны, усложнит применение традиционных методов использования данных, а с другой - повысит эффективность и востребованность предложенного в данной работе метода.
Работа посвящена вопросам создания межуниверситетской квантовой сети - инфраструктурного полигона для проверки решений построения сетей с квантовым распределением ключей и расширения возможностей подготовки кадров в области квантовых коммуникаций. В настоящее время интерес к созданию сетей с квантовым распределением ключей проявляют все передовые страны. В России разработано собственное оборудование квантового распределения ключей и строится магистральная квантовая сеть. Для ускорения практического внедрения квантовых коммуникаций и решения связанных с ним множества научных, технических, нормативных и кадровых вопросов разработана Концепция создания, развития и эксплуатации межуниверситетской квантовой сети национальной исследовательской компьютерной сети. В рамках реализации Концепции создан пилотный проект меж-университетской квантовой сети, которая объединяет ряд университетов и научных организаций, имеющих собственную инфраструктуру квантовых коммуникаций, обладающих компетенциями в области квантовых технологий, ведущих исследования и разработки в этой области и осуществляющих подготовку специалистов данного направления. Описана топология межуниверситетской квантовой сети, приведены схемы распространения ключа и обмена данными. При рассмотрении различных схем распределения ключей предпочтение отдается схемам с минимальными требованиями к защите доверенных промежуточных узлов. Предложено исследовать применение в межуниверситетской сети протокола MDI квантового распределения ключей через недоверенные узлы. Приведено краткое описание российского оборудования квантового распределения ключей, планируемого для применения в межуниверситетской квантовой сети. Использование в этой сети оборудования всех трех российских производителей квантового распределения ключа позволит продемонстрировать возможности масштабирования квантовых сетей на каждом типе оборудования, исследовать возможности совместной работы оборудования разных производителей и адаптировать его к совместному использованию. Пилотный проект создания межуниверситетской квантовой сети рассчитан на реализацию в 2023-2024 гг.
В статье описывается программа генерирования последовательности временных отсчетов комплексного гармонического колебания с флуктуацией фазы в виде фликкер-шума с заданной спектральной плотностью. Предлагается решение задачи оценки устойчивости современных каналов передачи цифровых данных к помехам и шумам, что на первом этапе проектирования канала выясняется с помощью моделирования. В моделирующей программе исходной характеристикой генерируемого колебания является желаемая спектральная плотность флуктуаций его начальной фазы. На ее основании рассчитывается амплитудно-частотная характеристика формирующего цифрового фильтра. На вход фильтра подается некоррелированная нормальная псевдослучайная последовательность, на выходе получается последовательность временных отсчетов флуктуирующей начальной фазы комплексного гармонического колебания с некоторой средней частотой (в частности, равной нулю). Для каждого из этих отсчетов вычисляются вещественная и мнимая компоненты выходного колебания генератора. Их совокупность и является искомым комплексным гармоническим колебанием с флуктуацией фазы. Программа написана на языке графического программирования NI LabVIEW, что позволяет видеть все этапы ее работы. Для оценки качества функционирования разработанной программы выполнено тестовое моделирование колебания высокостабильного генератора E5052B Signal Source Analyzer. Последующий численный анализ параметров полученного колебания и сравнение их с известными параметрами генератора подтвердили корректность работы программы. Предложенный в статье способ моделирования влияния фазовых шумов на сигналы в канале связи может быть полезен для специалистов в области исследования и проектирования различных систем беспроводной связи, а также в процессе изучения основ передачи радиосигналов в рамках образовательного процесса в высших учебных заведениях.
Экструзия является широко распространенным способом переработки материалов в различных отраслях промышленности. При этом конструкция шнека в значительной мере определяет качество экструдата и эффективность самого процесса его получения. В данной статье рассмотрены основные существующие перспективные подходы к определению оптимальных геометрических параметров шнеков. Предложена концепция системы автоматизированного проектирования, базирующаяся на использовании предварительно построенных параметризованных моделей шнеков. Их геометрия определяется переменными, которые могут варьироваться в широких пределах. Такой подход позволяет использовать прикладные программы аналитического определения важнейших геометрических характеристик шнека, обеспечивать быструю генерацию 3D-модели и проверку методом конечных элементов с одновременной оптимизацией параметров. Рассмотрено построение в Компас-3D параметризованной рабочей зоны шнека, включающей основной гребень переменного шага, барьерный гребень, а также зону основной и барьерной нарезки. Дана оценка основных методов построения сложных геометрических поверхностей в Компас-3D с точки зрения производительности моделирования. Предлагаемый метод может значительно увеличить скорость и улучшить точность проектирования шнеков экструдера, а также повысить качество и эффективность производственного процесса экструзии.
В статье описывается программная система, представляющая собой прикладное программное обеспечение для проектирования микрополосковых полоснопропускающих фильтров. В ее основе лежит программное обеспечение Ansoft HFSS, предназначенное для трехмерного электромагнитного моделирования СВЧ-структур. Система состоит из двух основных взаимосвязанных компонентов - программы для решения задачи анализа фильтра и программы для решения задачи синтеза многополюсника, заменяющего фильтр в процессе его проектирования. В работе приведено описание структуры программной системы и взаимосвязи ее отдельных компонентов. Использование программной системы проиллюстрировано на примере проектирования фильтра, состоящего из трех противонаправленных шпилечных резонаторов с металлизированными отверстиями в середине сгиба шпильки. Введение в середину резонатора короткозамкнутого отверстия позволяет почти в два раза расширить верхнюю полосу заграждения фильтра за счет перехода от простого полуволнового резонатора к совокупности двух четвертьволновых резонаторов. Для проектирования фильтра с отверстиями использована программная система, основанная на переходе от фильтра к многополюснику, состоящему из связанных друг с другом резонаторов. В результате спроектирован фильтр, обладающий требуемыми электрическими характеристиками. Описанная в статье программная система для проектирования данного фильтра подтвердила свою состоятельность и эффективность. Практическая значимость работы заключается в более чем двукратном расширении верхней полосы заграждения фильтра с металлизированными отверстиями по сравнению с аналогичным фильтром из простых шпилечных резонаторов без отверстий.
Представленная статья отражает итоги работы по расширению перечня опций графической оболочки для платформы OpenFOAM в контексте применения программы-решателя stressFoam. Назначение программы - исследование изменения свойств твердых тел под влиянием напряжений. Предметом исследования являются процесс постановки численных экспериментов на базе решателя stressFoam и возможность его осуществления посредством графического интерфейса. Сформулирован главный недостаток среды OpenFOAM, обусловивший необходимость выполнения исследования. Дана информация о назначении программы stressFoam и основной сфере ее применения. Описан набор технологий, необходимых для реализации графической, программной части проекта и подсистемы хранения данных. Приведено обоснование применения каждой технологии, определены архитектура создаваемого продукта и среда разработки. Даны диаграммы структуры и логики работы модуля, где выделены главные программные компоненты модуля и алгоритм его применения для задач механики сплошных сред. Итогом выполненной работы является программное решение, заменяющее привычный подход применения командной строки на более эффективный, в соответствии с которым все шаги выполняются посредством графического интерфейса пользователя. Исходный код продукта размещен в репозитории сервиса GitHub для реализации доступа специалистов, применяющих OpenFOAM в экспериментах и исследованиях.
В статье рассматривается проблема улучшения методов стилевой классификации русскоязычных текстов. В качестве возможного направления исследований предложен метод оптимизации набора (множества) букв, применяемого для вычисления статистических индексов текстов. Для оптимизации и контроля результатов использованы поэтические и прозаические художественные тексты на русском языке. Объем текстов составлял порядка 300 тысяч знаков при оптимизации и 100 тысяч знаков при контрольной оценке. Для вычисления статистических индексов рассчитывались частотности биграмм и триграмм букв. При оптимизации опробован также и вариант совместного использования индексов биграмм и триграмм. В статье дано краткое описание метода статистических индексов, приведены применявшиеся в исследовании алгоритм пошаговой оптимизации, вид возможной оптимизационной функции и формула для нахождения границы классификации. Показано, что оптимизация набора букв улучшает классификацию по сравнению с вариантом использования как полного набора букв, так и набора из гласных букв в применении к задаче автоматического различения поэтических и прозаических художественных текстов на русском языке. Проведено сравнение результатов классификации по предложенной формуле границы классификации с результатами расчетов по классификации методом ROC-кривых. В итоге для разных сочетаний статистических индексов и способов определения границы классификации интервал верной классификации составил 72-74 % для набора, включающего все буквы, 82-86 % для набора, включающего только гласные буквы, и 80.5-92.5 % для разных наборов букв, полученных при оптимизации.