Статья посвящена исследованию способности больших языковых моделей (LLM) интерпретировать референцию пословиц в русском языке на материале фразеологических выражений «первый блин комом» и «своя рука владыка». В рамках исследования предлагается классификация типов референции (конкретная, абстрактная, смешанная, неопределенная) и описывается методика классификации, реализованная в эксперименте с применением моделей GPT-5 и DeepSeek-3.1. Исследование выявило, что общая точность автоматической классификации типов референции пословиц не превышает 33 %, при этом модели демонстрируют уклон в пользу абстрактной референции и затрудняются в идентификации неопределенного типа. Более высокие показатели зафиксированы при бинарной классификации (конкретная / абстрактная; до 60 % у GPT-5), однако объяснение выбора типа часто связано с концептуальными ошибками, прежде всего с систематическим смешением оппозиции «конкретная / абстрактная референция» и «прямое / переносное значение». Делается вывод о том, что LLM имитируют процесс понимания, воспроизводя жанровые шаблоны и избегая риска некорректной интерпретации. Значимость результатов определяется возможностью дальнейшего совершенствования методик оценки интерпретационных способностей LLM в задачах анализа смысловой структуры устойчивых выражений.
Статья представляет собой лингвистическое исследование, направленное на оценку возможностей и ограничений современных ИИ в области реализации человеческих коммуникативных практик, прежде всего стратегий смягчения. Цель - исследовать и проанализировать митигативные стратегии (стратегии коммуникативного смягчения), используемые современными большими языковыми моделями (LLM), как один из ключевых аспектов процесса гуманизации искусственного интеллекта. Автор, используя эмпирическое тестирование и дискурс-анализ, стремится определить эффективность имитации ИИ человеческих коммуникативных тактик для поддержания комфортного и бесконфликтного общения. Научная проблема заключается в противоречии между стремлением наделить ИИ человеческими чертами (гуманизировать его), включая способность к мягкому, вежливому и этичному общению, и технологическими ограничениями. Установлено, что ИИ недостаточно эффективно распознаёт и генерирует сложные коммуникативные средства (иронию, сарказм, многозначные намеки); оперирует в основном базовыми митигативными приемами, в то время как человеческая коммуникация использует гораздо более широкий и тонкий спектр средств; сталкивается с парадоксом - в процессе обучения человеческой логике и коммуникации для ИИ может оказаться более эффективной иная, «нечеловеческая» логика, что потенциально создает новые вызовы.