Архив статей журнала
Стремительный рост объемов данных обуславливает необходимость разработки эффективных алгоритмов и технологий для их обработки в распределенных системах. Целью исследования является усовершенствование существующих алгоритмов обработки и распределения данных, учитывая текущую нагрузку на систему и общую загруженность. Анализ существующих методов обработки больших данных, таких как MapReduce, сегментирование и консистентное хеширование, подчеркивают важность развития адаптивных систем для обработки больших данных. Предложенная формула, включающая динамический коэффициент, позволяет значительно повысить производительность, масштабируемость и отказоустойчивость распределенных систем. Результаты моделирования демонстрируют, что предложенный подход позволяет достичь более эффективного использования ресурсов и предотвращает перегрузку отдельных узлов по сравнению с традиционными методами. На основе проведенного сравнительного анализа обоснована практическая применимость разработанной методики в широком спектре распределенных систем. Заключение подчеркивает стратегическую значимость развития адаптивных систем для обработки больших данных и интеграции современных технологий, таких как искусственный интеллект и машинное обучение. Предложенные усовершенствования открывают перспективы для дальнейших исследований и разработки более мощных и гибких распределенных систем, способных эффективно справляться с возрастающими требованиям современной цифровой среды.