Системы поддержки принятия решений (СППР) представляют собой перспективную технологию на основе искусственного интеллекта (ИИ). На данный момент подобные системы используются в ряде сфер и отраслей экономики, однако область юриспруденции остается одной из наиболее сложных для их внедрения.
Цель данной работы состоит в анализе психологических аспектов взаимодействия пользователя и ИИ в рамках упомянутых систем. На основе анализа существующих моделей взаимодействия человека и технологий, а также авторской методологии представлен дизайн исследования. Представлены результаты фокус-группы с экспертами органов исполнительной и судебной власти (N = 8): место СППР в работе юриста, польза и сомнения в ходе использования подобных систем. Выделены параметры, значимые для профилирования и дальнейшей адаптации систем к конкретному пользователю.
Также в статье обсуждаются перспективы и вопросы внедрения СППР в практике правоприменения.
Настоящее исследование анализирует институциональные и технологические вызовы интеграции систем искусственного интеллекта (ИИ) в публичное администрирование и государственные сервисы, фокусируясь на классификации ролей алгоритмов в процессах принятия решений, балансе интересов в сотрудничестве с коммерческими поставщиками ИИ-решений и инфраструктуры, а также обеспечении национальной технологической автономии. Применен качественный междисциплинарный подход, сочетающий нормативноправовой анализ, тематический анализ эмпирических кейсов из практики различных стран и теоретический синтез. Данные собраны из официальных источников, рецензируемых научных публикаций и новостных источников с использованием метода снежного кома для отбора кейсов, а кодирование проводилось итеративно. В результате разработана оригинальная авторская шестиуровневая пирамидальная модель распределения ответственности в зависимости от степени автономии алгоритмов ИИ в цепочке принятия решений: от полной делегации («ИИ-Капитан») через предложение готового решения с утверждением человеком («ИИ-Штурман»), набор конфигураций («ИИ-Советник»), анализ среды с сигнализацией триггеров («ИИ-Наблюдатель» ), выполнение трудозатратных задач с ревизией оператором («ИИ-Рабочие руки») до рутинной поддержки без решений («ИИ-Рутинный помощник»). Модель наложена на градации рисков (высокий, ограниченный, минимальный) для оценки последствий ошибок. Выявлена дилемма государственно-частного партнерства, обеспечивающего доступ к инновациям, но усиливающего зависимость и уязвимости. Также обоснована роль суверенного ИИ как стратегии снижения этих рисков. Для эффективной интеграции алгоритмов в государственные сервисы рекомендуется внедрение обязательной классификации систем ИИ по уровням автономии и критичности, где шестиуровневая таксономия обеспечивает дифференцированный подход к распределению ответственности, минимизируя институциональные пробелы и риски предвзятости.
В статье рассматривается роль ИИ в военной и управленческой сферах, а также институциональные изменения, которые имеют место вследствие расширения использования автономных цифровых платформ. Обоснование актуальности темы связано с динамичным ростом потенциала использования интеллектуальных систем, радикально изменяющих механизмы принятия решений, способы распределения ответственности и управленческие модели в вооруженных конфликтах настоящего времени. Также подробно рассматриваются изменения в структурах противоборства, возникающие в результате внедрения самообучающихся платформ. Цель исследования — определение механизмов и анализ последствий трансформации военных стратегий, связанных с переходом от классических форм ведения боевых действий к практикам, опирающимся на использование автономных цифровых платформ. В работе был использован институциональный метод для анализа институциональных изменений, происходящих под влиянием внедрения ИИ. Применение системного метода позволило рассматривать ИИ-системы как неотъемлемую часть современного мира, в котором уже невозможно раздельное существование человека и машины. Отмечается, что масштабное внедрение автономных цифровых платформ порождает многообразные риски не только технического, но также антропологического и экзистенциального характера. Рассматриваются и проблема ответственности за результаты принятых решений, и роль человека (в том числе и контролирующая) в меняющемся мире, и правовое обеспечение трансформирующейся реальности. При этом потенциал автономных цифровых систем по настоящее время является предметом серьезных дискуссий, поскольку не определены его границы. Автор приходит к выводу, что роль человека не должна быть номинальной, оператор всегда должен иметь возможность не только проводить мониторинг деятельности ИИ-систем, но также интерпретировать результат принятых решений и в случае необходимости иметь полномочия корректировать их. Очевидно, что переход ИИ от вспомогательного функционала к ведущей роли автономного разработчика сценариев принимаемых решений кардинально меняет систему взаимоотношений между человеком и вычислительными системами, поэтому она нуждается в адаптации к современным алгоритмам принятия управленческих решений, а также в обеспечении соразмерности социальной динамики, общественных ожиданий и направленности институциональных трансформаций.
Цель данного исследования заключается в проведении анализа современного состояния правового регулирования оценки результативности и эффективности технологической политики Российской Федерации, в том числе в сфере развития искусственного интеллекта и в разработке предложений по формированию комплексной системы такой оценки для повышения действенности инструментов государственного управления.
Методы исследования включают формально-юридический метод, который применялся для анализа системы нормативного правового регулирования как в сфере технологической политики в целом, так и в отношении инструментов государственного управления для развития искусственного интеллекта, сравнительно-правовой анализ существующих и проектируемых элементов оценки результативности и эффективности в отношении технологической политики в целом и развития искусственного интеллекта в частности, а также метод правового моделирования для разработки соответствующих рекомендаций по развитию указанной оценки результативности и эффективности.
Результаты исследования показали, что действующее правовое регулирование не содержит единого подхода к оценке результативности и эффективности мер государственной поддержки и стимулирования технологического развития в целом и развития искусственного интеллекта в частности, ориентированной на достижение конечного общественно значимого результата такого развития (технологическое лидерство России, в том числе в сфере искусственного интеллекта). Выявлена терминологическая неопределенность и преобладание оценки выполнения плановых мероприятий над оценкой их реального вклада в достижение и обеспечение технологического суверенитета и технологического лидерства России.
Выводы исследования заключаются в том, что для достижения и обеспечения технологического суверенитета и технологического лидерства России, в том числе в сфере развития искусственного интеллекта, реализация инструментов и мер государственного управления (стимулирования и поддержки развития) должна быть обусловлена внедрением и применением системной оценки результативности и эффективности таких инструментов и мер, включая соответствующий терминологический аппарат, показатели и методику оценки. Обоснован комплекс предложений по совершенствованию проектов нормативных правовых актов в этой сфере, разрабатываемых Минэкономразвития России в 2025 г.
Данная статья выступает пропедевтической работой для исследования, целью которого является выявление наиболее вероятных социально-политических и институциональных изменений в условиях внедрения искусственного интеллекта (ИИ) в системы электронных государственных сервисов в России. В основе методологии лежат неоинституциональный и сетевой подходы, а также принципы теории рационального выбора. Это позволяет анализировать формальные и неформальные правила, координацию между субъектами и мотивы их поведения. Источниковую базу составляют публикации из баз РИНЦ, Scopus, WoS и IEEE, программные документы государств и данные по внедрению ИИ в различных секторах. Особое внимание уделяется изучению преимуществ, рисков и изменений, связанных с начавшейся интеграцией ИИ в государственные сервисы. Рассмотренные кейсы внедрения новых технологий демонстрируют значительный потенциал реформирования государственного управления, повышения эффективности услуг, качества коммуникации между властями и гражданами. Выделены значительные риски внедрения ИИ в электронные государственные сервисы. Приведенный анализ показывает, что успешное внедрение ИИ может быть обеспечено сбалансированной стратегией, учитывающей вопросы безопасности, прозрачности и доверия к технологиям. В статье представлены промежуточные результаты исследовательского проекта, направленного на выявление стратегий цифрового поведения отдельных возрастных групп граждан. Так, младшие и средние поколения опасаются замены человека ИИ-инструментами, а старшие не готовы к цифровой трансформации. На основе выявленных тенденций и сценариев внедрения ИИ-инструментов в электронные сервисы сформирована источниковедческая и методическая основа для предстоящего исследовательского проекта.
Стремительно развивающиеся технологии искусственного интеллекта (далее — ИИ) проникают во все сферы жизнедеятельности общества и встраиваются в процессы управления. Скорость их развития, самообучения и спектр возможностей применения поражают воображение. ИИ-технологии становятся частью повседневной жизни человека и условием лидерства, эффективности в бизнесе, политике, науке, образовании, в том числе и на международном уровне.
Последствия столь бурного и повсеместного применения ИИ пока еще не полностью изучены и осознаны, особый интерес в понимании последующих изменений представляет внедрение ИИ-технологий в управлении государством, являющимся особым социальным институтом по своему предназначению, обеспечивающим стабильность и регуляцию в обществе. Ошибки в управлении могут иметь катастрофический эффект.
Это и предопределило цель статьи, а именно — рассмотрение процесса внедрения искусственного интеллекта в работу государства в контексте его институциональной специфики. Для достижения цели была применена методология институционального и деятельностно-активистского подходов, социологическое осмысление уникальности ИИ-технологий, что позволило рассмотреть структурные, нормативно-правовые особенности внедрения ИИ в государственное управление в повседневных практиках работы госслужащих, а также актуализировать существующие риски наблюдаемого процесса.
Для цитирования: Хлутков А. Д. Очевидные достижения и возможные проблемы искусственного интеллекта. Управленческое консультирование. 2025;(5):12-12. EDN: DHBKPU
Для цитирования: Полтавченко Г. С. Искусственный интеллект: современные реалии и возможные проблемы. Управленческое консультирование. 2025;(5):10-11. EDN: BUYKPM
В статье с философско-медиологических позиций проводится анализ феномена киборгизации как тотальной культурной формы, раскрываются теоретические подходы к ее пониманию, характеризуются ее текущее состояние и перспективы. Автор постулирует, что в общем смысле киборгизацию можно трактовать в качестве практики слияния людей с машинами, техникой, вещами. При этом утверждается, что она наиболее эксплицитно воплощает в себе такое свойство системы культуры, как трансфинитность (преодоление границ человеческих способностей и возможностей), и тем самым актуализирует статус культуры как усилия, т. е. усиления или расширения. Заявляя тезис об обусловленности трансфинитности медиальностью, другим свойством культуры (обеспечением непрерывности в сохранении человеческих приобретений), автор статьи подчеркивает, что киборгизация сопутствует медиации - иному тотальному социокультурному феномену. Иными словами, киборгизация способствует непрерывной передаче традиций технико-технологического самотворения человека во времени. В исследовании поставлен вопрос о соотнесенности представлений о киборге как «частичном андроиде» и как человеке «технорасширенном». Раскрыто содержание понятий «постчеловек» и «трансчеловек», указано, что наиболее точным является понятие «человек технологизирующийся», или «техночеловек». Описано 4 модели киборгизации: классическая и неоклассическая, доклассическая и неклассическая. Они объединены в две гипермодели: (пост)современную и архаическую, демонстрирующие присутствие в системе культуры собственно киборгизации и повседневной андроидизации (человещности). Подчеркивается, что (пост)современная гипермодель задает условно умеренную версию тотальности киборгизации (тотальность прошлого и настоящего), а архаическая - радикальную версию (тотальность приблизившегося будущего). В заключение автор замечает, что классический и неоклассический варианты симбиоза людей и машин кажутся тератологическими, однако именно они выступают вектором развития системы культуры.
В статье рассматривается политическая стратегия внедрения искусственного интеллекта правительством США и её реализация на транспорте, стратегические цели и задачи Министерства транспорта, проблемы транспортной отрасли и их решения с внедрением искусственного интеллекта.
В данной статье рассматривается влияние искусственного интеллекта (ИИ) на развитие стартапов и трансформацию предпринимательства. Особое внимание уделяется тому, как нейросети и другие технологии ИИ изменяют подходы к созданию и управлению бизнесами, улучшая процессы автоматизации, прогнозирования и аналитики. Также анализируются риски и вызовы, с которыми сталкиваются предприниматели в условиях быстрого внедрения технологий ИИ, и предлагаются пути преодоления возможных препятствий. В статье подчеркивается, как ИИ открывает новые возможности для инноваций и ведения бизнеса в условиях глобальной цифровизации.
Сегодня сложно не отметить рост популярности использования искусственного интеллекта в различных сферах жизни общества - от социальных сетей до внедрения в существующие алгоритмы различных программ. В то же время предприятия стараются стать всё более человекоцентричными не только в области отношений с клиентами, но и в отношении сотрудников: создать условия для развития, сформировать чувство уверенности и безопасности, создать комфортную организационную культуру. Цели настоящей статьи - выделение конфликтообразующих факторов, рассмотрение природы их влияния на сотрудников компании, выявление основных элементов, их формирующих. Понимание этих моментов поможет руководству предприятия избежать серьёзных проблем на пути внедрения новых технологий и использования методов искусственного интеллекта в деятельности компании. Также автором выделены достоинства и недостатки применения методов машинного обучения в управленческой деятельности. Среди негативных выделено отсутствие эмпатии и человеческого подхода, что, с другой стороны, является и плюсом наравне с точностью и эффективностью обработки информации и принятия решений, поскольку позволяет это делать без лишних эмоций, которые часто ведут к снижению правильности результатов.