Архив статей

ПРОБЛЕМЫ ПРИЗНАНИЯ РЕЗУЛЬТАТОВ РАБОТЫ ГЕНЕРАТИВНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ИНЫМИ ДОКУМЕНТАМИ-ДОКАЗАТЕЛЬСТВАМИ В УГОЛОВНОМ СУДОПРОИЗВОДСТВЕ (2026)

В настоящей работе рассматривается вопрос о процессуальной квалификации результатов функционирования генеративных алгоритмических систем (ChatGPT, Claude, Gemini) с точки зрения доказательственного права. Центральное внимание уделяется анализу того, насколько продукты деятельности таких технологий соответствуют критериям иных документов в рамках российского уголовного процесса. Исследование выявляет сущностные характеристики материалов, производимых генеративными моделями, демонстрируя их качественное несоответствие классическим формам документальных доказательств, и показывает системные противоречия, возникающие при попытке квалификации таких материалов по ст. 84 УПК РФ. Доказывается, что генеративные модели создают материалы, лишенные главного признака доказательства - связи с обстоятельствами прошлого, представляя собой вероятностные конструкции, синтезированные на основе статистических закономерностей обучающих данных. Рассматриваются пять ключевых проблем процессуальной квалификации таких материалов: установление относимости к обстоятельствам дела, обеспечение допустимости доказательств, проверка достоверности содержащихся сведений, отсутствие возможности допроса автора и разграничение доказательственной и справочной информации.

В работе предлагается концептуальное решение проблемы разграничения доказательственной и недоказательственной информации в контексте использования материалов генеративного искусственного интеллекта в уголовном процессе, обосновывается необходимость законодательного закрепления запрета на признание результатов работы автоматизированных систем иными документами-доказательствами.