ИЗВЕСТИЯ ЮФУ. ТЕХНИЧЕСКИЕ НАУКИ
Архив статей журнала
Рассмотрены вопросы, связанные с автоматизацией процедуры синтеза систем прикладной фотограмметрии. Такие системы служат для измерения и учета объектов по изображениям и в настоящее время широко применяются в различных областях деятельности, таких как картографирование, археология и аэрофотосъемка. Широкому применению также способствует повышение доступности и мобильности устройств для получения изображений. Все это обусловило проведение активных исследований, направленных на разработку методического обеспечения для систем прикладной фотограмметрии. Отслеживание в ручном режиме появления новых методов и алгоритмов фотограмметрической обработки информации для широкой номенклатуры областей применения достаточно затруднительно, что делает актуальной автоматизацию данной процедуры. Предлагаемое в статье решение основано на использовании базы знаний о методах обработки информации в системах прикладной фотограмметрии, основными элементами которой являются нечеткая онтология предметной области и база данных, что логично, т.к. информация о предметной области может быть достаточно легко структурирована. В качестве основы для онтологии было взято существующее решение, которое было дополнено на основе результатов анализа текущего состояния предметной области. Полученная онтология далее использована для поиска и классификации методов обработки информации в системах прикладной фотограмметрии и заполнения базы знаний. В связи с активизацией разработки новых методов обработки информации в системах прикладной фотограмметрии возникает необходимость модификации онтологии и пополнения базы данных, т. е. пополнения базы знаний. Важным источником информации для этого является Интернет. Для автоматизации поиска данных о методах обработки информации и пополнения базы знаний целесообразно использовать большие языковые модели, благодаря которым упрощается решение нескольких задач в области обработки естественного языка, которые включают кластеризацию и формирование новых сущностей для классификации. Соответствующий метод описан в статье. Для метода приведены результаты тестирования его работоспособности. В рамках решения задач проведён сравнительный анализ больших языковых моделей, в результате которого была вобрана модель RoBERTa.
Статья посвящена актуальной проблеме представления и классификации длинных текстовых документов с использованием трансформеров. Методы представления текста, основанные на трансформерах, не могут эффективно обрабатывать длинные последовательности из-за их процесса самовнимания, который масштабируется квадратично с длиной последовательности. Это ограничение приводит к высокой вычислительной сложности и невозможности применения таких моделей для обработки длинных документов. Для устранения этого недостатка, в статье разработан алгоритм на основе трансформера SBERT, который позволяет построить векторное представление длинных текстовых документов. Ключевая идея алгоритма заключается в применении двух различных процедур к созданию векторного представления: первая основана на сегментации текста и усреднении векторов сегментов, а вторая - на конкатенации векторов сегментов. Такая комбинация процедур позволяет сохранить важную информацию из длинных документов. Для проверки эффективности алгоритма был проведен вычислительный эксперимент на группе классификаторов, построенных на основе предложенного алгоритма, и группе известных методов векторизации текста, таких как TF-IDF, LSA и BoWC. Результаты вычислительного эксперимента показали, что классификаторы на основе трансформеров в целом достигают лучших результатов по точности классификации по сравнению с классическими методами. Однако, это преимущество достигается за счет более высокой вычислительной сложности и, соответственно, более длительного времени обучения и применения таких моделей. С другой стороны, классические методы векторизации текста, такие как TF-IDF, LSA и BoWC, продемонстрировали более высокую скорость работы, что делает их более предпочтительными в случаях, когда предварительное кодирование не допускается и требуется работа в режиме реального времени. Предложенный алгоритм обработки и представления длинных документов доказал свою высокую эффективность и привел к увеличению точности классификации набора данных BBC на 0,5% по критерию F1.
Статья посвящена решению научной проблемы создания верхнеуровневого описания модели онтологии знаний для интеллектуальных систем обработки и анализа текстов на естественном языке, построенной на основе оригинальной компонентной архитектуры, обеспечивающей необходимый уровень детализации спецификаций анализируемой текстовой информации. Актуальность данной задачи обусловлена необходимостью развития теоретических основ построения информационных моделей семантических зависимостей внутри текстов на естественном языке. Автором даны определения основным терминам исследуемой предметной области. Представлена формализованная постановка решаемой задачи. Проблема «информационного взрыва», причиной возникновения которой стал экспоненциальный рост объемов цифровой информации, привела к ситуации, когда до 95% информационного потока содержит неструктурированные данные. В подобных условиях, крайне актуальной становится задача создания эффективных интеллектуальных систем поиска и приобретения знаний, в том числе, интеллектуальных систем обработки и анализа текстов на естественном языке. Научным направлением решения этой частной задачи является Text Mining (TM) - раскопка знаний в текстовой информации. В качестве примера прикладной задачи использования приобретенных знаний, в данном исследовании, рассматривается значимая проблема информационной поддержки процессов предупреждения и/или ликвидации последствий чрезвычайных ситуаций. В данной задаче исходными данными являются потоки текстовых сообщений (новостной информации, отчетов о техническом состоянии техногенных объектов, информации о природных явлениях и т.п.), поступающих в центры принятия решений, а на выходе формируются прогностические оценки и/или конкретные инструкции относительно оценки ситуации и предпринимаемых действий определенными специалистами. Одной из причин, сдерживающих развитие интеллектуальных систем обработки и анализа текста для решения задач поиска, приобретения и использования знаний, является недостаточно высокий уровень эффективности моделей и алгоритмов, обеспечивающих комплексное решение описанных выше задач искусственного интеллекта с учетом особенностей семантики и контекста.
Одним из актуальных направлений при создании систем раннего обнаружения объектов является разработка алгоритмов поиска и распознавания малоразмерных объектов на изображениях. В задаче раннего обнаружения приходится распознавать объекты на дальних расстояниях от места их фиксации камерой. Образ на изображении таких объектов представлен малой компактной группой пикселей, которая претерпевает пространственные и яркостные изменения от кадра к кадру. Для успешного решения этой задачи целевые объекты реального мира должны иметь большие физические размеры. Кроме физических размеров объекта на образ объекта на изображении влияют большое количество факторов: разрешение матрицы камеры, фокусное расстояние объектива, светочувствительность матрицы и др. Вектор решения такой задачи направлен в сторону сверточных нейронных сетей. Однако, даже у передовых архитектур сверточных нейронных сетей поиск и распознавание малоразмерных объектов на изображениях вызывает трудности. Эта проблема напрямую связана с эффектом переобучения модели нейронной сети. Переобучение модели нейронной сети можно оценить на основе анализа кривых обучения. Для снижения вероятности переобучения применяют специальные методы, которые объединяет термин регуляризация. Однако, в распознавании малоразмерных объектов существующих методов регуляризации бывает недостаточно. В работе произведено исследование разработанного алгоритма предварительной обработки последовательности видеокадров, увеличивающего исходное пространство признаков новым независимым признаком движения в кадре. Алгоритм предварительной обработки основан на пространственно-временной фильтрации последовательности видеокадров, применение которого распространяется на широкий спектр архитектур сверточных нейронных сетей. Для исследования характеристик точности и распознавания сверточных нейронных сетей сформированы датасеты изображений в градациях серого и изображений с признаком движения на основе среды разработки 3D графики Unreal Engine 5. В работе приведен критерий малоразмерности объектов на изображениях. Произведено обучение и оценка характеристик точности тестовой модели сверточной нейронной сети и анализ динамики кривых обучения тестовой модели. Показано положительное влияние предложенного алгоритма предварительной обработки последовательности видеокадров на интегральную точность обнаружения малоразмерных объектов.