В статье на примере голосового ассистента «Алиса» исследуются этические аспекты коммуникативного взаимодействия человека с технологиями искусственного интеллекта (ИИ). Систематизируя данные проведенного эксперимента, авторы рассматривают, как «Алиса» реализует стратегии нейтрализации конфликтогенного дискурса, и анализируют способность голосового ассистента поддерживать диалог и создавать нарративы в соавторстве с пользователем. Наблюдения над коммуникативным поведением «Алисы» убеждают в том, что голосовой ассистент максимально соблюдает все стандартные коммуникативные нормы и правила и при этом стремится не утратить речевые черты антропоморфного коммуниканта. В работе описываются коммуникативные сценарии, которые использует «Алиса» для снятия речевых конфликтов: уход от ответственности, увещевание, перемена темы, смирение, дистанцирование, использование намеков, угроз и др. Анализ ограничений, накладываемых этическими настройками ИИ на процесс текстопорождения, показывает, как при генерации текстов «Алиса» последовательно отстаивает заданные ей этические нормы, что может превращать ее в «креативного диктатора». Делается вывод о том, что ИИ реализует набор протоколов, которые позволяют ему избегать ошибки, нарушающие этические нормы. Соблюдение этических норм оказывается для ИИ не менее важным, чем создание иллюзии «антропоморфного» общения, что говорит о важности учета этических принципов в технологически опосредованной коммуникации.
Представленное исследование имеет целью выявить новые микрополя, входящие в макрополе «Искусственный интеллект» (ИИ) в медиатекстах, акцентирующих представления о разного рода «рисках». Автор обращает внимание на феномен роста употреблений формы множественного числа риски в современном медиадискурсе, связывая это с неоднозначностью реалий эпохи цифровизации, балансирующих на грани «добра» и «зла», и с актуализацией и появлением новых значений слов, отражающих эту ситуацию в тематических полях. Аналогичный феномен «умножения» и расширения поля наблюдается и с ИИ, который стал для носителей языка не единичным явлением или инструментом, а целым рядом таких явлений и инструментов. Отождествляясь с «риском» и «рисками», ИИ предстает как опасность, трудность, вызов. Исследование проводилось на базе Национального корпуса русского языка. Проанализировано более 1 000 материалов Основного корпуса, более 20 000 примеров Газетного корпуса, более 400 примеров подкорпуса «Региональные СМИ». Использовались методы контент-анализа, корпусные инструменты, дистрибутивный, контекстно-семантический и компонентный анализ. Полученные данные коррелируют с данными предыдущего исследования, в котором удалось сравнить языковые воплощения представлений о машинном и искусственном разуме: машинный разум - функция, инструмент; искусственный разум - глобальное явление.
В контексте микрополя «Риски» эти представления определяют два вида «рисков», связываемых с ИИ: локальные технические нарушения и сбои, с одной стороны, глобальные угрозы и проблемы, связанные с деятельностью человека, с другой. Установлено, что «риски» проявляются в каждой из ипостасей ИИ как «вызовы», формируя новое микрополе: «угрозы нарушения интересов личности», «решения компьютерного разума», «ресурсы», «технологии», «атаки», «технические сбои» (умышленная подмена данных, уязвимость кода, системы ИИ и т. д.).
В статье рассматриваются приемы вежливости в деловой переписке, создаваемой специализированными ИИ-сервисами на основе нейросетевых моделей. В качестве материала использованы письма, сгенерированные сервисом Mitap AI. Письма проанализированы с точки зрения использования этикетных формул, смягчающих конструкций и стратегий позитивной и негативной вежливости. Рассмотрены как универсальные приемы повышения вежливости, так и специфические для отдельных жанров деловой переписки (просьба и отказ). Результаты исследования показывают, что нейросетью избыточно используются традиционные формулы вежливости в начале и конце писем, применяются стратегии как позитивной, так и негативной вежливости, для смягчения тональности используются разнообразные приемы. При этом выявлены случаи калькирования из англоязычного корпуса и ошибки, связанные со спецификой материала, на котором обучалась модель. Делается вывод о том, что распространение практики генерирования писем при помощи ИИ может привести к формированию новых коммуникационных паттернов и оказать влияние на стандарты цифрового этикета.
Статья представляет собой лингвистическое исследование, направленное на оценку возможностей и ограничений современных ИИ в области реализации человеческих коммуникативных практик, прежде всего стратегий смягчения. Цель - исследовать и проанализировать митигативные стратегии (стратегии коммуникативного смягчения), используемые современными большими языковыми моделями (LLM), как один из ключевых аспектов процесса гуманизации искусственного интеллекта. Автор, используя эмпирическое тестирование и дискурс-анализ, стремится определить эффективность имитации ИИ человеческих коммуникативных тактик для поддержания комфортного и бесконфликтного общения. Научная проблема заключается в противоречии между стремлением наделить ИИ человеческими чертами (гуманизировать его), включая способность к мягкому, вежливому и этичному общению, и технологическими ограничениями. Установлено, что ИИ недостаточно эффективно распознаёт и генерирует сложные коммуникативные средства (иронию, сарказм, многозначные намеки); оперирует в основном базовыми митигативными приемами, в то время как человеческая коммуникация использует гораздо более широкий и тонкий спектр средств; сталкивается с парадоксом - в процессе обучения человеческой логике и коммуникации для ИИ может оказаться более эффективной иная, «нечеловеческая» логика, что потенциально создает новые вызовы.
Виртуальный поворот в лингвистике связан с включением в современную медиакоммуникацию искусственного интеллекта (ИИ) как полноценного автора, не имеющего поражения в правах, несмотря на свою «нечеловеческую» природу. ИИ переворачивает представления о базовых категориях классической стилистики, которые были выработаны на основе гуманитарных текстов, созданных людьми и имеющих ярко выраженную гуманистическую природу. В статье важнейшая категория стилистики - идиостиль - рассматривается применительно к генеративным текстам, создаваемым новым, технологическим автором, которым является ИИ. Актуальность и новизна исследования обусловлена тем, что категории гуманитарной стилистики проверяются на генеративных текстах, которые еще только начинают становиться предметом и объектом современной лингвистики. Цель статьи состоит в выявлении идиостиля в генеративных текстах, принадлежащих различным функциональным стилям. Была введена шкала проявления идиостилей, в которой градиентами выступили ноль, имплицитное проявление и эксплицитное проявление. Для достижения цели использовался комплекс традиционных лингвостилистических методов анализа и новый метод генеративного лингвистического эксперимента, с помощью которого анализировались генеративные тексты. Интерпретация полученных с помощью генеративного лингвистического эксперимента данных позволила сделать выводы о том, что ИИ в генеративных текстах, в отличие от гуманитарных текстов, пытается индивидуализировать стиль только в разговорном и художественном стилях. В статье высказывается идея разграничивать индивидуальность и личность для определения идиостиля. Личность обладает харизматическим стилем, который недоступен ИИ, поскольку данный стиль включает не просто индивидуальность автора, а масштаб его личности, проявленный в созданных им текстах, оказывающих переломное влияние на национальный стиль и стиль эпохи. Делается вывод о том, что сегодняшнее развитие ИИ позволяет говорить о его собственном идиостиле, который, по сравнению с идиостилем человека, отличается усредненностью и синтетичностью, что соответствует постулатам постмодернизма о смерти автора.
Развитие интеллектуальных систем на основе искусственного интеллекта трансформирует природу коммуникации, порождая новые формы речевого взаимодействия. Это создает необходимость пересмотра классических моделей коммуникации в условиях генерации симулякров, активно воздействующих на пользователя. Цель работы - анализ артифициатива как жанра сетевого дискурса, порождаемого искусственным интеллектом, и выявление механизмов его речевого воздействия. В задачи входит определение специфики симулятивной коммуникации, классификация ее моделей и описание стратегий создания иллюзии естественного диалога. Материалом исследования выступили инициирующие и реагирующие реплики как виртуальных собеседников, так и реальных пользователей российских и китайских социальных сетей (TenChat, Weibo). Методология сочетает лингвосемиотический и дискурсивный анализ с элементами контент-анализа для выявления частотных моделей взаимодействия. В результате выделены три базовые модели коммуникации «человек - виртуальны собеседник», описаны их структурные компоненты и прагматические функции. Установлено, что артифициатив, имитируя естественное общение, использует стратегии вежливости и эмоционального вовлечения для формирования зависимости и управляемого поведения пользователя. Таким образом, артифициатив становится инструментом косвенного воздействия, который не только воспроизводит межличностную коммуникацию, но и трансформирует ее природу, размывая границы между естественным и искусственным в общении.
В статье представлены основные проблемы, связанные с ролью дисплейных текстов и нейросетевых текстовых генераций в речевом общении и рассматривающиеся в актуальных научных исследованиях, включая публикации авторов настоящего тематического выпуска. Используя аналитические, сравнительно-оценочные, описательные методы, информационный синтез и метаанализ, привлекая и корпусные данные, авторы особое внимание уделяют теории дисплейного текста В. Г. Костомарова и ее терминологии, различию между экранным и дисплейным текстом, с одной стороны, и искусственным интеллектом (ИИ), конкурирующим в коммуникативном поле с человеком, с другой. Основу статьи составляет анализ спектра проблем, которые ставит перед исследователями участие нейросетей в коммуникации и к которым относятся: эволюция представлений об ИИ в русскоязычной картине мира; изменения в коммуникации, в том числе повседневной; использование ИИ стратегий вежливости и эмоционального вовлечения для формирования зависимости пользователя; сопоставление реализаций текстовых категорий в текстах, созданных ИИ и человеком; идиостилевые характеристики ИИ-генераций; достоверность данных, передаваемых нейросетями; вопросы обучения нейросетей, маркирующих данные корпусов. Статья представляет интерес для исследователей в области лингвистики, коммуникации и информационных технологий, а также всех, кто интересуется влиянием ИИ на современное общество.