Исследование посвящено проблеме вхождения искусственного интеллекта (ИИ) в повседневную коммуникацию. Авторов интересует вопрос о том, насколько удобно использовать в обычной жизни готовые коммуникативные решения, разработанные на основе ИИ, в процессе взаимодействия между людьми и машинами. В ходе исследования были подтверждены эффективность и приемлемость этих решений для повседневного использования. Также были выявлены приоритеты участников коммуникации при повседневном взаимодействии с ИИ. Одним из методов исследования послужил эксперимент, в ходе которого респондентам было предложено ответить на вопросы, связанные с повседневным общением между людьми. Вопросы были составлены в упрощенной форме, имитирующей коммуникацию с ребенком. Было выявлено, что в условиях межличностного общения люди с высокой вероятностью будут применять в повседневной жизни готовые коммуникативные решения, разработанные ИИ. Эффективность ИИ в создании таких решений подтверждается анализом его ответов на типичные детские вопросы. В результате установлено, что ответы ИИ привлекали респондентов своей простотой, ясностью и тем, что учитывали возраст собеседника. Полнота и достоверность информации были важны, но не являлись основными критериями, а качество ответа, побуждающее респондентов глубже задуматься над вопросом, воспринималось скорее как его дополнительное преимущество.
Идентификаторы и классификаторы
- SCI
- Коммуникации
Искусственный интеллект (ИИ) постепенно становится неотъемлемой частью нашей жизни, выполняя функции ассистентов, консультантов, переводчиков и, в определенном смысле, приятелей. В современной коммуникации активно используются чат-боты, голосовые помощники, системы автоматического перевода, а также инструменты для создания и редактирования текстов. Так, в сфере высшего образования «в результате взаимодействия с чат-ботом студенты испытывают удовольствие и заинтересованность… возрастает их уровень мотивации и академической вовлеченности» [Гринвальд и др. 2023: 113].
Если у вас возникли вопросы или появились предложения по содержанию статьи, пожалуйста, направляйте их в рамках данной темы.
Список литературы
1. Городков Д.А., Кошмило О.К. Проблема понимания в сфере коммуникации человека и искусственного интеллекта (что подразумевается под способностью ИИ понимать человека?) // Цифровые технологии: настоящее и будущее: сб. ст. по материалам III Нац. науч.-практ. конф. с междунар. участием. Тольятти: Тольят. акад. управления, 2024. С. 202-205. EDN: VXSKUA
2. Гринвальд О.Н., Исламов Р.С., Ресенчук А.А., Савельева И.В. Лингводидактический потенциал чат-бота в преподавании иностранного языка в вузе // Современные наукоемкие технологии. 2023. № 11. С. 109-113. DOI: 10.17513/snt.39829 EDN: RLYIOB
3. Деникин А.А. Человеко-машинные взаимодействия и искусственный интеллект: к новому пониманию алгоритмических коммуникаций // Социология науки и технологий. 2024. Т. 15. № 4. С. 67-82. DOI: 10.24412/2079-0910-2024-4-67-82 EDN: WYOYUX
4. Дзялошинский И.М. Цифровые коммуникационные сервисы в эпоху формирования искусственного интеллекта // Журналист. Социальные коммуникации. 2021. № 1. С. 11-33. EDN: BUTUMK
5. Ерещенко М.В., Богуславская В.В. Коммуникация с искусственным интеллектом в социальной сети: информирование, самопрезентация, воздействие // Коммуникативные исследования. 2024. Т. 11. № 2. С. 255-270. DOI: 10.24147/2413-6182.2024.11(2).255-270 EDN: HEVOCY
6. Исламов Р.С. Homo fretus или человек полагающийся: взгляд на роль нейросетей в настоящем и будущем человеческой коммуникации // Современные коммуникативные практики: перспективы развития теоретических и прикладных исследований: сб. докл. II Межвуз. науч.-практ. семинара Ин-та филологии, иностр. яз. и медиакоммуникаций КемГУ. Кемерово: Кемер. гос. ун-т, 2024. Вып. 1. С. 19-26. EDN: KFKQLF
7. Сединин Я.А. Перверсия цифрового мира: этика ChatGPT в контексте психоанализа и социальной философии // Векторы благополучия: экономика и социум. 2023. № 4 (51). С. 73-86. DOI: 10.18799/26584956/2023/4/1664 EDN: KESDJH
8. Bergman B., Negretti R., Spencer-Oatey H., Stöhr C. Integrating Home and International Students in HE: Academic and Social Effects of Pair Work PBL Assignments Online // Journal of Studies in International Education. 2024. Vol. 28. Iss. 2. P. 240-258. DOI: 10.1177/10283153221150117
9. Danso S., Annan M.A.O., Ntem M.T.K., Baah-Acheamfour K., Awudi B. Artificial intelligence and human communication: A systematic literature review // World Journal of Advanced Research and Reviews. 2023. Vol. 19. No. 1. P. 1391-1403. DOI: 10.30574/wjarr.2023.19.1.1495 EDN: SPTBWK
10. Dixon N., Cox A. Fiction writing workshops to explore staff perceptions of artificial intelligence (AI) in higher education // AI & Society. 2025. Vol. 40. Iss. 5. P. 3983-3998. DOI: 10.1007/s00146-024-02157-x EDN: HEORNO
11. Gunkel D. Communication and Artificial Intelligence: Opportunities and Challenges for the 21st Century // Сommunication +1. 2012. Vol. 1. Iss. 1: Futures of Communication. DOI: 10.7275/R5QJ7F7R
12. Hancock J.T., Naaman M., Levy K.E. AI-Mediated Communication: Definition, Research Agenda, and Ethical Considerations // Journal of Computer Mediated Communication. 2020. Vol. 25. Iss. 1. P. 89-100. DOI: 10.1093/jcmc/zmz022 EDN: UQWJRR
13. Hohenstein J., Kizilcec R.F., DiFranzo D., Aghajari Z., Mieczkowski H., Levy K., Naaman M., Hancock J., Jung M.F. Artificial intelligence in communication impacts language and social relationships // Scientific Reports. 2023. Vol. 13. Art. 5487. DOI: 10.1038/s41598-023-30938-9 EDN: ZEXXDP
14. Ling H.Y., Björling E.A. Sharing stress with a robot: What would a robot say? // Human-Machine Communication. 2020. Vol. 1. P. 133-158. DOI: 10.30658/hmc.1.8 EDN: AYGTNC
15. Schmidt P., Loidolt S. Interacting with machines: Can an artificially intelligent agent be a partner? // Philosophy & Technology. 2023. Vol. 36. Iss. 3. Art. 55. DOI: 10.1007/s13347-023-00656-1 EDN: HLZYAF
16. Thimm C., Gramelsberger G., Mayer M., Piller F. From Automation to Autonomy: Human Machine Relations in the Age of Artificial Intelligence // Human-Machine Communication. 2024. Vol. 9. P. 7-24. DOI: 10.30658/hmc.9.1 EDN: TEUWEB
Выпуск
Другие статьи выпуска
В рецензии рассматривается подготовленная исследователями из Омского государственного университета им. Ф. М. Достоевского коллективная монография, посвященная различным аспектам функционирования диалогических и диалогизированных медиаформатов и медиажанров. Подчеркивается значимость и актуальность издания для научного и современного профессионального медийного сообществ. Отмечается вклад авторов монографии в проблематику категории диалогичности в массмедиа и вписанность издания в широкий социально-культурный контекст.
В статье на примере голосового ассистента «Алиса» исследуются этические аспекты коммуникативного взаимодействия человека с технологиями искусственного интеллекта (ИИ). Систематизируя данные проведенного эксперимента, авторы рассматривают, как «Алиса» реализует стратегии нейтрализации конфликтогенного дискурса, и анализируют способность голосового ассистента поддерживать диалог и создавать нарративы в соавторстве с пользователем. Наблюдения над коммуникативным поведением «Алисы» убеждают в том, что голосовой ассистент максимально соблюдает все стандартные коммуникативные нормы и правила и при этом стремится не утратить речевые черты антропоморфного коммуниканта. В работе описываются коммуникативные сценарии, которые использует «Алиса» для снятия речевых конфликтов: уход от ответственности, увещевание, перемена темы, смирение, дистанцирование, использование намеков, угроз и др. Анализ ограничений, накладываемых этическими настройками ИИ на процесс текстопорождения, показывает, как при генерации текстов «Алиса» последовательно отстаивает заданные ей этические нормы, что может превращать ее в «креативного диктатора». Делается вывод о том, что ИИ реализует набор протоколов, которые позволяют ему избегать ошибки, нарушающие этические нормы. Соблюдение этических норм оказывается для ИИ не менее важным, чем создание иллюзии «антропоморфного» общения, что говорит о важности учета этических принципов в технологически опосредованной коммуникации.
Представленное исследование имеет целью выявить новые микрополя, входящие в макрополе «Искусственный интеллект» (ИИ) в медиатекстах, акцентирующих представления о разного рода «рисках». Автор обращает внимание на феномен роста употреблений формы множественного числа риски в современном медиадискурсе, связывая это с неоднозначностью реалий эпохи цифровизации, балансирующих на грани «добра» и «зла», и с актуализацией и появлением новых значений слов, отражающих эту ситуацию в тематических полях. Аналогичный феномен «умножения» и расширения поля наблюдается и с ИИ, который стал для носителей языка не единичным явлением или инструментом, а целым рядом таких явлений и инструментов. Отождествляясь с «риском» и «рисками», ИИ предстает как опасность, трудность, вызов. Исследование проводилось на базе Национального корпуса русского языка. Проанализировано более 1 000 материалов Основного корпуса, более 20 000 примеров Газетного корпуса, более 400 примеров подкорпуса «Региональные СМИ». Использовались методы контент-анализа, корпусные инструменты, дистрибутивный, контекстно-семантический и компонентный анализ. Полученные данные коррелируют с данными предыдущего исследования, в котором удалось сравнить языковые воплощения представлений о машинном и искусственном разуме: машинный разум - функция, инструмент; искусственный разум - глобальное явление.
В контексте микрополя «Риски» эти представления определяют два вида «рисков», связываемых с ИИ: локальные технические нарушения и сбои, с одной стороны, глобальные угрозы и проблемы, связанные с деятельностью человека, с другой. Установлено, что «риски» проявляются в каждой из ипостасей ИИ как «вызовы», формируя новое микрополе: «угрозы нарушения интересов личности», «решения компьютерного разума», «ресурсы», «технологии», «атаки», «технические сбои» (умышленная подмена данных, уязвимость кода, системы ИИ и т. д.).
В статье исследуется феномен виртуальных инфлюенсеров как нового типа управляемых медиаактивов, возникновение которого обусловлено развитием генеративного ИИ и кризисом традиционного инфлюенс-маркетинга. На основе теоретических подходов медиаэкономики, теории платформ и коммуникативистики анализируется процесс создания и капитализации полностью синтетической медиаличности. Центральное место в работе занимает детальный разбор кейса первого российского виртуального инфлюенсера «Мира», созданного для ритейл-сети «Магнит». Методом кейс-стади анализируется его B2B-модель, основанная на прямой бренд-интеграции, и стратегия вывода на рынок. На основе эмпирических данных рассчитываются и интерпретируются ключевые показатели эффективности (KPI) на начальном этапе, в частности зафиксирован аномально высокий для бренд-контента показатель вовлеченности (ERR) - 10,4 %. Раскрывается экономическая логика актива, базирующаяся на высоких первоначальных и низких предельных издержках, что обеспечивает снижение стоимости контакта по мере роста аудитории. Научная новизна исследования заключается в концептуализации жизненного цикла виртуального инфлюенсера как инвестиционного медиаактива и анализе его экономической эффективности на примере первого крупного российского проекта, что подтверждает глобальный сдвиг от экономики «арендованных» личностей к экономике созданных и полностью контролируемых синтетических активов.
Статья посвящена исследованию способности больших языковых моделей (LLM) интерпретировать референцию пословиц в русском языке на материале фразеологических выражений «первый блин комом» и «своя рука владыка». В рамках исследования предлагается классификация типов референции (конкретная, абстрактная, смешанная, неопределенная) и описывается методика классификации, реализованная в эксперименте с применением моделей GPT-5 и DeepSeek-3.1. Исследование выявило, что общая точность автоматической классификации типов референции пословиц не превышает 33 %, при этом модели демонстрируют уклон в пользу абстрактной референции и затрудняются в идентификации неопределенного типа. Более высокие показатели зафиксированы при бинарной классификации (конкретная / абстрактная; до 60 % у GPT-5), однако объяснение выбора типа часто связано с концептуальными ошибками, прежде всего с систематическим смешением оппозиции «конкретная / абстрактная референция» и «прямое / переносное значение». Делается вывод о том, что LLM имитируют процесс понимания, воспроизводя жанровые шаблоны и избегая риска некорректной интерпретации. Значимость результатов определяется возможностью дальнейшего совершенствования методик оценки интерпретационных способностей LLM в задачах анализа смысловой структуры устойчивых выражений.
В современной корпусной лингвистике экспоненциальный рост объемов текстовых данных сделал невозможной их ручную разметку, что стало ключевым вызовом для дальнейшего развития корпусной лингвистики. Настоящая статья представляет краткий обзор ключевых методов машинного обучения, применяемых для внутритекстовой разметки в крупных лингвистических корпусах, с фокусом на русскоязычных проектах. В работе рассматриваются современные лингвистически аннотированные корпуса русского языка (Национальный корпус русского языка, Генеральный интернет-корпус русского языка и др.) и анализируются подходы к их автоматической разметке: от ранних словарных и статистических методов, таких как MyStem, PyMorphy2, TreeTagger, до современных нейросетевых архитектур, применяемых для лемматизации, морфосинтаксического, словообразовательного и семантического анализа. Показано, что применение машинного обучения, особенно предобученных языковых моделей, позволило достичь высокой точности, сопоставимой с экспертным уровнем, для наиболее актуальных видов лингвистической разметки. Это открывает новые возможности для создания корпусов беспрецедентного масштаба и проведения лингвистических исследований на по-настоящему крупных массивах данных. В то же время отмечено, что при подобных объемах корпусов даже незначительное отклонение точности разметки от идеальной приводит в абсолютном выражении к миллионам ошибок, что делает необходимым критическое осмысление получаемых при анализе автоматически размеченных корпусов результатов.
Рассматривается в микродиахронии специфика функционирования терминологического сочетания искусственный интеллект в русскоязычных текстах. Цель исследования - выявить особенности употребления термина и его вариантов в современной речи. Материал исследования: Национальный корпус русского языка, электронная медиабаза «Интегрум», научный дискурс. Методика исследования включает анализ семантики и комбинаторики термина; стилистический анализ; дискурсивный анализ. Установлено, что термин является многозначным: в его семантической структуре выделяются процессуальное, предметное, гносеологическое и экзистенциальное значения, по-разному проявляющие себя в разного типа дискурсах. Начиная с 1970-х гг. термин проходит путь от футурологемы, обозначающей фикциональное понятие, до техницизма-реалии. Изменение сочетаемости термина заметно по постепенному сокращению глагольных конструкций со значением поссесивности « Х обладает / наделен искусственным интеллектом », связанных с антропоморфным характером внутренней формы термина, и увеличению числа конструкций « Х оснастили <снабдили, оборудовали> искусственным интеллектом», типичных для использования техницизма при характеристике технического устройства. Динамика изменений в использовании термина искусственный интеллект, обусловленная стремительным развитием соответствующей технологии и широким внедрением ее достижений в повседневную жизнь, проявляется в увеличении частотности термина в медиа; детерминологизации; актуализации компактных субститутов термина, прежде всего ИИ; активности некодифицированных вариантов разной коннотации в медиатекстах ( ИИшка, ИскИн и др.
В статье рассматриваются приемы вежливости в деловой переписке, создаваемой специализированными ИИ-сервисами на основе нейросетевых моделей. В качестве материала использованы письма, сгенерированные сервисом Mitap AI. Письма проанализированы с точки зрения использования этикетных формул, смягчающих конструкций и стратегий позитивной и негативной вежливости. Рассмотрены как универсальные приемы повышения вежливости, так и специфические для отдельных жанров деловой переписки (просьба и отказ). Результаты исследования показывают, что нейросетью избыточно используются традиционные формулы вежливости в начале и конце писем, применяются стратегии как позитивной, так и негативной вежливости, для смягчения тональности используются разнообразные приемы. При этом выявлены случаи калькирования из англоязычного корпуса и ошибки, связанные со спецификой материала, на котором обучалась модель. Делается вывод о том, что распространение практики генерирования писем при помощи ИИ может привести к формированию новых коммуникационных паттернов и оказать влияние на стандарты цифрового этикета.
В статье рассматривается возможность использования нейросетей в качестве полноценных научных и справочных источников. Делается вывод о том, что существенной преградой для использования нейросетей в отмеченном выше аспекте является их ориентация на синтез текстов - заполнение готовых форм с опорой на ключевые слова без осуществления глубокого анализа с выявлением иерархии исследуемых явлений и установления их более тонких особенностей. В сгенерированных текстах данная черта находит свое проявление в трех типах галлюцинаций. Галлюцинации первого типа (реминисцентного) основаны на ассоциациях с конкретными текстами и фактами. Галлюцинации второго типа (свободно-ассоциативные) возникают вследствие ассоциаций со словами, содержащимися в запросе. Третья группа (основанный на типовых рядах) характеризуется заполнением номинациями (зачастую неверно выбранными) позиций в готовых шаблонах, что хорошо заметно на примерах путеводителей, созданных нейросетями и ставших основным материалом для данной статьи. Галлюцинации первой и второй групп возникают при обработке запросов, связанных с фактами, обладающими широкой известностью, тогда как галлюцинации третьей группы чаще проявляют себя при изложении малоизвестных фактов. В работе подчеркивается важность критического подхода к фактам, изложенным в сгенерированных текстах.
Статья представляет собой лингвистическое исследование, направленное на оценку возможностей и ограничений современных ИИ в области реализации человеческих коммуникативных практик, прежде всего стратегий смягчения. Цель - исследовать и проанализировать митигативные стратегии (стратегии коммуникативного смягчения), используемые современными большими языковыми моделями (LLM), как один из ключевых аспектов процесса гуманизации искусственного интеллекта. Автор, используя эмпирическое тестирование и дискурс-анализ, стремится определить эффективность имитации ИИ человеческих коммуникативных тактик для поддержания комфортного и бесконфликтного общения. Научная проблема заключается в противоречии между стремлением наделить ИИ человеческими чертами (гуманизировать его), включая способность к мягкому, вежливому и этичному общению, и технологическими ограничениями. Установлено, что ИИ недостаточно эффективно распознаёт и генерирует сложные коммуникативные средства (иронию, сарказм, многозначные намеки); оперирует в основном базовыми митигативными приемами, в то время как человеческая коммуникация использует гораздо более широкий и тонкий спектр средств; сталкивается с парадоксом - в процессе обучения человеческой логике и коммуникации для ИИ может оказаться более эффективной иная, «нечеловеческая» логика, что потенциально создает новые вызовы.
Виртуальный поворот в лингвистике связан с включением в современную медиакоммуникацию искусственного интеллекта (ИИ) как полноценного автора, не имеющего поражения в правах, несмотря на свою «нечеловеческую» природу. ИИ переворачивает представления о базовых категориях классической стилистики, которые были выработаны на основе гуманитарных текстов, созданных людьми и имеющих ярко выраженную гуманистическую природу. В статье важнейшая категория стилистики - идиостиль - рассматривается применительно к генеративным текстам, создаваемым новым, технологическим автором, которым является ИИ. Актуальность и новизна исследования обусловлена тем, что категории гуманитарной стилистики проверяются на генеративных текстах, которые еще только начинают становиться предметом и объектом современной лингвистики. Цель статьи состоит в выявлении идиостиля в генеративных текстах, принадлежащих различным функциональным стилям. Была введена шкала проявления идиостилей, в которой градиентами выступили ноль, имплицитное проявление и эксплицитное проявление. Для достижения цели использовался комплекс традиционных лингвостилистических методов анализа и новый метод генеративного лингвистического эксперимента, с помощью которого анализировались генеративные тексты. Интерпретация полученных с помощью генеративного лингвистического эксперимента данных позволила сделать выводы о том, что ИИ в генеративных текстах, в отличие от гуманитарных текстов, пытается индивидуализировать стиль только в разговорном и художественном стилях. В статье высказывается идея разграничивать индивидуальность и личность для определения идиостиля. Личность обладает харизматическим стилем, который недоступен ИИ, поскольку данный стиль включает не просто индивидуальность автора, а масштаб его личности, проявленный в созданных им текстах, оказывающих переломное влияние на национальный стиль и стиль эпохи. Делается вывод о том, что сегодняшнее развитие ИИ позволяет говорить о его собственном идиостиле, который, по сравнению с идиостилем человека, отличается усредненностью и синтетичностью, что соответствует постулатам постмодернизма о смерти автора.
В статье на материале текстов, написанных школьниками и сгенерированных нейросетевыми моделями (YandexGPT, GigaChat, «ТекстПлюс»), проводится исследование таких текстовых категорий и свойств, как связность (когезия и когерентность), цельность, завершенность, членимость, развернутость и последовательность, социологичность, выявляется их специфика в сопоставлении текстов, созданных естественным и искусственным разумом. Анализ показал, что наиболее успешно нейросети обращаются с такими категориями текста, которые могут быть алгоритмизованы: членимость, когезия, социологичность. Так, модели успешно: 1) проводят деление текста на абзацы, сохраняют единство микротемы и используют коннекторы в соответствии с правилами тематического развертывания (членимость); 2) реализуют субституцию (когезия); 3) создают тексты заданного типа и фиксированной структуры (социологичность). Однако современные модели всё еще испытывают трудности при работе с категориями, оформляющими текст на глобальном уровне в соотношении с мышлением: когерентность, завершенность, развернутость и последовательность. Нарушения реализации этих категорий обычно представлены следующими видами: ошибками в области создания и движения мысли при внешнем соблюдении формальной связности (когерентность), ошибки в создании выводов в ходе рассуждения (завершенность), регулярные нарушения логичности речи как на локальном, так и глобальном уровнях (развернутость и последовательность). Школьники, демонстрируя средний уровень владения всеми категориями, создают всё же более осмысленные тексты в сравнении с нейросетевыми.
Развитие интеллектуальных систем на основе искусственного интеллекта трансформирует природу коммуникации, порождая новые формы речевого взаимодействия. Это создает необходимость пересмотра классических моделей коммуникации в условиях генерации симулякров, активно воздействующих на пользователя. Цель работы - анализ артифициатива как жанра сетевого дискурса, порождаемого искусственным интеллектом, и выявление механизмов его речевого воздействия. В задачи входит определение специфики симулятивной коммуникации, классификация ее моделей и описание стратегий создания иллюзии естественного диалога. Материалом исследования выступили инициирующие и реагирующие реплики как виртуальных собеседников, так и реальных пользователей российских и китайских социальных сетей (TenChat, Weibo). Методология сочетает лингвосемиотический и дискурсивный анализ с элементами контент-анализа для выявления частотных моделей взаимодействия. В результате выделены три базовые модели коммуникации «человек - виртуальны собеседник», описаны их структурные компоненты и прагматические функции. Установлено, что артифициатив, имитируя естественное общение, использует стратегии вежливости и эмоционального вовлечения для формирования зависимости и управляемого поведения пользователя. Таким образом, артифициатив становится инструментом косвенного воздействия, который не только воспроизводит межличностную коммуникацию, но и трансформирует ее природу, размывая границы между естественным и искусственным в общении.
В статье представлены основные проблемы, связанные с ролью дисплейных текстов и нейросетевых текстовых генераций в речевом общении и рассматривающиеся в актуальных научных исследованиях, включая публикации авторов настоящего тематического выпуска. Используя аналитические, сравнительно-оценочные, описательные методы, информационный синтез и метаанализ, привлекая и корпусные данные, авторы особое внимание уделяют теории дисплейного текста В. Г. Костомарова и ее терминологии, различию между экранным и дисплейным текстом, с одной стороны, и искусственным интеллектом (ИИ), конкурирующим в коммуникативном поле с человеком, с другой. Основу статьи составляет анализ спектра проблем, которые ставит перед исследователями участие нейросетей в коммуникации и к которым относятся: эволюция представлений об ИИ в русскоязычной картине мира; изменения в коммуникации, в том числе повседневной; использование ИИ стратегий вежливости и эмоционального вовлечения для формирования зависимости пользователя; сопоставление реализаций текстовых категорий в текстах, созданных ИИ и человеком; идиостилевые характеристики ИИ-генераций; достоверность данных, передаваемых нейросетями; вопросы обучения нейросетей, маркирующих данные корпусов. Статья представляет интерес для исследователей в области лингвистики, коммуникации и информационных технологий, а также всех, кто интересуется влиянием ИИ на современное общество.
Издательство
- Издательство
- ОМГУ ИМ. Ф. М. ДОСТОЕВСКОГО
- Регион
- Россия, Омск
- Почтовый адрес
- 644077, Омская обл, г Омск, Советский округ, пр-кт Мира, д 55А
- Юр. адрес
- 644077, Омская обл, г Омск, Советский округ, пр-кт Мира, д 55А
- ФИО
- Замятин Сергей Владимирович (РЕКТОР)
- Контактный телефон
- +7 (___) _______