В данной статье приведено описание процесса производства азотной кислоты путем окисления аммиака кислородом воздуха. Рассмотрена технологическая схема получения азотной кислоты путем окисления аммиака кислородом воздуха, а также дана характеристика целевого продукта – азотная кислота, рассмотрены основные химические и физические свойства исходных веществ – аммиак и воздух (кислород). Произведен расчет и построены графики представленных математических моделей. Произведен практический расчет материального и теплового баланса стадии окисления аммиака кислородом воздуха.
Организация непрерывного мониторинга значительных пространств с динамически меняющимися условиями и обстановкой является одной ключевых задач в различных направлениях жизнедеятельности человека. Особо остро эта задача стоит в России с учетом ее территорий (земель), предназначенных для сельскохозяйственной деятельности. Особую важность организации непрерывного мониторинга подчеркивает и развитие концепции и технологий точного земледелия. В качестве средств для решения этой системной задачи могут использоваться различные робототехнические и беспилотные системы, оснащенные необходимым оборудованием в соответствии с локальными задачами непрерывного мониторинга. Непрерывный мониторинг при этом может быть обеспечен только применением эффективных алгоритмов построения траектории движения используемых подвижных робототехнических и беспилотных (в первую очередь авиационных) систем. Повышение эффективности таких алгоритмов с математической точки зрения всегда усложняется цикличностью траекторий движения, т.е. построением гамильтонова цикла. В рамках данной работы предлагается метод конструирования оптимальной траектории движения при выполнении задач непрерывного циклического мониторинга сельскохозяйственных полей. Метод основан на поиске гамильтонова цикла на графе карты местности и позволяет автоматически строить оптимальный замкнутый путь для произвольной карты местности. Отличительной особенностью метода является использование модифицированного алгоритма поиска гамильтонова цикла. Алгоритм может быть масштабирован для карт, соответствующих графам с большим (более 100) количеством вершин, для которых стандартный алгоритм поиска гамильтонова цикла методом перебора требует значительно большего времени выполнения, чем предложенный алгоритм. Показано, что используемый алгоритм обладает в 17 раз меньшей константой роста временной сложности, чем стандартный алгоритм поиска гамильтонова цикла. Это позволяет увеличить количество вершин графа, используемого для поиска гамильтонова цикла в режиме реального времени (от 0.1 до 100 секунд), на порядок (от 30 до 500). Разработанный алгоритм может быть внедрён в современные беспилотные системы мониторинга состояния сельскохозяйственных полей для оптимизации траектории движения беспилотных аппаратов в режиме реального времени (0.1-100 секунд), внося тем самым вклад в динамично развивающуюся область точного земледелия.
В современных нестабильных условиях рыночной среды для предприятий транспортной логистики возникает задача прогнозирования возможных рисковых ситуаций с целью их недопущения, а также разработки инструментария, позволяющего формировать управленческие решения, оценивать эффективность каждого из них и выбирать наиболее приемлемое с учетом конкретных задач и различных влияющих факторов. В качестве рисков рассмотрены ситуации недостижения целей грузового порта, а также случаи недостижения показателями оценки данных целей нормативных значений. Цели и показатели обозначены и описаны в построенной ранее сбалансированной системе показателей (ССП). Множество связей целей и показателей их оценки с рисками на различных уровнях управления представлено в виде разработанной многоуровневой гибридной логико-вероятностной (ЛВ) модели рисков грузового порта, а также в подробных моделях сценариев данной ЛВ-модели. Комплексное использование технологий ССП и ЛВ-моделирования позволило выстроить общую концепцию многоуровневого целеполагания, основное преимущество которой заключается в детальной проработке целей компании, подчиненных основной стратегической, что позволяет в случае необходимости оказывать влияние на операционные события и получать положительный результат в более долгосрочном периоде, в тактическом и стратегическом планах. Онтологическая модель содержит всю информацию о взаимодействии элементов, влияющих на наступление рисковых событий, и позволяет осуществлять выборку вариантов выхода из рискованной ситуации в соответствии с различными заданными условиями. Результаты запросов к риск-ориентированной онтологической модели являются вариантами управленческих решений, направленных на снижение рисков в грузовом порту.
Технология одновременной многопоточности считается малоприменимой в программах, занимающихся интенсивными вычислениями, в частности, при умножении матриц - одной из основных операций машинного обучения. Целью данной работы является определение границ применимости этого типа многопоточности к интенсивным вычислениям на примере блочного матричного умножения. В работе выделен ряд характеристик кода умножения матриц и архитектуры процессора, влияющих на эффективность использования одновременной многопоточности. Предложен способ определения наличия структурных ограничений процессора при исполнении более чем одного потока и их количественной оценки. Рассмотрено влияние используемого примитива синхронизации и его особенности применительно к одновременной многопоточности. Рассмотрен существующий алгоритм разделения матриц на блоки, предложено изменение размеров блоков и параметров циклов для лучшей утилизации вычислительных модулей ядра процессора двумя потоками. Создана модель оценки производительности выполнения идентичного кода двумя потоками на одном физическом ядре. Создан критерий определения возможности оптимизации кода с интенсивными вычислениями с помощью этого типа многопоточности. Показано, что разделение вычислений между логическими потоками с использованием общего кэша L1 оправдано как минимум на одной из распространенных архитектур процессоров.
В статье показаны возможности применения методов машинного обучения для построения и анализа системы аутентификации на основе динамики нажатий клавиш. В работе обоснована необходимость улучшения многофакторной системы аутентификации. Предложен способ классификации работ поведенческой биометрии для сравнения и использования результатов исследований. Рассмотрены базовые возможности обработки и генерирования динамических и статических признаков динамики нажатий клавиш. Протестированы различные комбинации наборов признаков и выборок обучения, описана лучшая комбинация с равной частой ошибок (Equal Error Rate) 4,7%. Итеративный анализ качества системы позволяет установить важность первых символов последовательности ввода, а также нелинейную взаимосвязь степени ранжирования модели и EER. Высокие показатели, достигнутые бустинговой моделью, свидетельствуют о значительном потенциале поведенческой аутентификации для дальнейшего улучшения, развития и применения. Приводится значимость данного метода, его практическая полезность не только в задаче аутентификации, перспективы развития, включая использование нейросетевых методов и анализ динамики данных. Несмотря на достигнутые результаты, отмечается необходимость дальнейшей работы над моделью, включая разработку дополнительных моделей кластеризации, классификации, изменение набора признаков и построение каскада. Подчеркивается важность исследуемой области, способной принести значительный вклад в развитие информационной безопасности и технологий.
В работе рассматривается задача детектирования машинно-сгенерированных текстов при помощи различных инструментов построения регрессионных моделей - классической линейной регрессии, логистической регрессии и квантильной регрессии. Прогресс в области машинного обучения позволяет создавать все более реалистичные тексты, что открывает возможности для их недобросовестного использования. По мере того, как алгоритмы генерации текстов становятся более сложными, возрастает и сложность задачи детектирования таких текстов, что также требует применения более сложных методов математического моделирования и более эффективных численных методов. Рассматриваемый алгоритм адаптивной квантильной регрессии представляет собой инструмент, который позволяет строить модели с акцентом на различные квантили, что делает его особенно полезным для детектирования нетипичных значений, что может указывать на искусственную природу текстов. Также в работе представлено подробное описание исходного открытого набора данных для обучения моделей, представляющего собой сгенерированные тексты при помощи модели GhatGPT и случайные рукописные тексты c различных форумов, приведен анализ проведенных вычислительных экспериментов. Результаты исследования показывают высокую эффективность предложенного метода в данной прикладной области.
Актуальность темы исследования обусловлена растущей потребностью в быстрых и точных инструментах построения математических моделей. В данной работе рассматриваются подходы к построению адаптивной квантильной регрессии, так как выбор оптимального квантиля в процессе обучения может сэкономить большое количество времени исследователя. Правильный выбор квантиля может существенно улучшить показатели модели на тестовых наборах данных и, как следствие, позволит получать более надежные прогнозы при реальном использовании такой математической модели. Разработанный подход представляет собой комбинацию модифицированной квантильной регрессии и градиентного спуска, что улучшает адаптацию модели к различным данным. В работе приведено подробное описание разрабатываемого алгоритма, сравнение точности работы предложенной модели с традиционной квантильной регрессией и градиентным спуском, и их комбинациями, а также анализируется время обучения моделей, включая количество эпох обучения. Эксперименты показывают, что адаптивная квантильная регрессия демонстрирует повышенную точность при сокращении времени обучения. Результаты подчеркивают эффективность этого метода в области анализа данных и прогнозирования, открывая новые перспективы для более эффективных и быстрых моделей машинного обучения.
В статье рассматривается задача распределения температуры в полосе и рабочих валках в процессе горячей прокатке в условиях неопределенности входных параметров. Рассматривается зона очага деформации с образованием на поверхности полосы прокатной окалины, вследствие чего в рассматриваемой области очага деформации решается система из уравнений теплопроводности с различными начальными и краевыми условиями. Далее рассматривается зона межклетевого промежутка, где происходит теплообмен полосы с окружающей средой. Во всех зонах входные параметры представлены в виде интервальных чисел. Зона очага деформации и межклетевой промежуток были дискретизированы из непрерывной области в сеточную с помощью конечно-разностной аппроксимации выведены системы линейных алгебраических уравнений с трехдиагональными интервальными матрицами коэффициентов, приведен метод встречной прогонки с интервальными коэффициентами для решения полученных систем. В статье рассмотрены результаты расчетов для 7 клетей, идущих друг за другом и состоящих из очага деформации и межклетевого промежутка, для случая с вещественными входными параметрами и для случая с интервальными входными параметрами, расчеты произведены с помощью разработанного программного обеспечения для обоих случаев.
В статье представлена формальная модель многоагентных систем для федеративного обучения. Концепция федеративного обучения очень близка к многоагентным системам, поскольку агенты позволяют обучать модели машинного обучения на локальных устройствах, сохраняя при этом конфиденциальную информацию. Возможности агентов взаимодействовать друг с другом позволяют обобщать (агрегировать) такие модели и повторно их использовать. В работе описываются взаимодействие и координация агентов, которые должны осуществляться с учетом стратегий обучения: последовательно, когда модель обучается по очереди на каждом узле; централизованно, когда модели обучаются параллельно на каждом узле и агрегируются на центральном сервере; децентрализованно, когда обучение и агрегация выполняются на каждом из узлов. Выделены основные типы агентов, необходимые для выполнения полного цикла федеративного обучения: принимающий задачу от пользователя, собирающий информацию о среде, выполняющий планирование обучения, выполняющий обучение на узле с данными, предоставляющий информацию и доступ к данным, осуществляющий агрегацию моделей. Для каждого из агентов определены основные действия и типы сообщений, которыми они обмениваются. Проанализированы и описаны конфигурации размещения агентов для каждой из стратегий федеративного обучения. На основе предложенной формальной модели можно осуществлять разработку многоагентных систем, используемых для задач федеративного обучения, а на основе выделенных типов агентов и видов сообщений - платформы агентов, сами агенты и протоколы их взаимодействия.
Предложена реализация программной платформы для создания нейросетевых моделей с их тестированием, используемых для формирования специализированных словарей автоматизированных систем. Она позволяет ускорить процесс поиска оптимального метода для разработки нейросетевой модели. В основе платформы лежит обзор существующих инструментов и методов, используемых для создания моделей анализа текстов и технологий виртуализации ПО. Авторами исследования разработана архитектура программной платформы для формирования специализированных словарей, обеспечивающая одновременное создание разных нейросетевых моделей в виртуальных контейнерах. Контейнерная виртуализация программных элементов, создающих и тестирующих нейросетевые модели, обеспечивает проведение всех математических расчетов по обработке текстовой информации, обучению и тестированию нейросетевой модели децентрализованно, параллельно и изолированно друг от друга. Обмен данными между виртуальными контейнерами, а также хранение результатов их работы осуществляются через специальную шину данных, представляющую собой дисковое пространство, к которому имеют доступ все контейнеры. Применение разработанной платформы позволит ускорить процесс поиска алгоритма создания специализированных словарей через проверку гипотез, основанных на использовании различных методов построения моделей. Ускорение процесса происходит благодаря параллельности и повторному использованию математических результатов общих этапов алгоритмов, математические расчеты которых проведены похожим алгоритмом. Это позволяет масштабировать и дробить процесс обучения за счет параллельного создания различных моделей, а также на уровне отдельных этапов создания моделей. Предложенная платформа была успешно применена для поиска локально-оптимального метода создания модели в текстах узкой тематики.
Описана методика модификации моделирования квантового алгоритма, основанная на прямом (большого объема) матричном представлении квантовых операторов. Этот подход стабилен и точен, но требует размещения матриц оператора в памяти компьютера. Поскольку размер операторов растет экспоненциально, подход полезен для моделирования квантовых алгоритмов с относительно небольшим количеством кубитов (например, приблизительно 11 кубитов на типовом компьютере). Используя его, относительно просто смоделировать работу системы контроля качества решения и выполнить анализ достоверности. Более эффективный метод быстрого моделирования контроля качества основан на вычислении всех или части операторных матриц по мере необходимости на текущей вычислительной основе. Используя данный метод, можно избежать сохранения всех или части операторных матриц. В этом случае количество кубитов, которые могут быть смоделированы (например, количество входных кубитов или количество кубитов в регистре состояния системы), влияет на экспоненциальный рост числа операций, необходимых для вычисления результата матричных произведений, и на размер вектора состояния, выделяемого в памяти компьютера. В одном из вариантов применения этого подхода целесообразно моделировать до 19 или более кубитов на типичном настольном компьютере и даже больше на системе с векторной архитектурой. Из-за особенностей процессов адресации памяти и доступа к ней в типичном настольном компьютере (например, персональный компьютер на базе Pentium), когда количество кубитов относительно невелико, подход «вычисления по требованию», как правило, эффективнее, чем подход с прямым хранением. Подход «вычисления по требованию» выигрывает благодаря применению результатов детального изучения квантовых операторов и их структуры, что позволяет более эффективно вычислять матричные элементы. В работе рассмотрено эффективное моделирование алгоритма квантового поиска Гровера на примере компьютера с классической архитектурой.
В статье рассматриваются вопросы реализации алгоритма распределения вычислительных задач по множеству распределенных вычислительных ресурсов с последующей агрегацией результатов. Данный алгоритм является ключевым в рамках проекта реализации центра обработки данных на принципах экономики совместного потребления. Прототип механизма реализован на языке Python 3.8 с применением СУБД PostgreSQL 14, система передачи сообщений - на базе RabbitMQ 3.9. В качестве платформы вычислительных узлов выступает ОС CentOS 8 Stream. Цель работы заключается в реализации масштабируемого механизма выполнения распределенных вычислений для применения в качестве основного средства распределения задач и агрегации результатов в рамках исследуемого облика центра обработки данных на принципах экономики общественного потребления. Предметом исследования являются методы резервирования и применения вычислительных мощностей, а также агрегации результатов работы программных алгоритмов. Предложенный механизм решает задачу распределения вычислений с последующей агрегацией результатов среди вычислительных узлов с различными техническими характеристиками. Реализуется интерфейс, пригодный для интеграции в клиентские информационные системы как средство выгрузки вычислений с доступом в формате REST API-шлюза. Теоретическая значимость работы заключается в комбинировании существующих принципов и идей Edge-вычислений для решения иного класса задач, где проблемой является недостаток вычислительного ресурса для задач информационной системы, а не характеристик имеющейся модели. Практическая значимость состоит в разработке прикладного инструмента применения внешних вычислительных мощностей для решения широкого класса клиентских задач. Это открывает возможность организации коммерческого взаимодействия владельцев неиспользуемых вычислительных ресурсов и владельцев информационных систем, испытывающих недостаток вычислительных мощностей.