В статье исследуется влияние цифровой трансформации на развитие маркетинговых стратегий в таможенной сфере. Анализируются современные информационные технологии, такие как электронные системы документооборота, аналитические платформы, системы искусственного интеллекта и другие инновационные инструменты, играющие ключевую роль в повышении эффективности, прозрачности и конкурентоспособности участников внешнеэкономической деятельности и внешнеторгового оборота. Особое внимание уделяется вопросам адаптации таможенных структур к условиям цифровой эпохи, а также вопросам оптимизации процессов, автоматизации и снижения административных барьеров для повышения их оперативной деятельности и улучшения взаимодействия с бизнесом и государственными органами. Исследование демонстрирует, как внедрение цифровых решений способствует развитию более гибких и инновационных маркетинговых подходов в таможенной сфере.
Предметом данной статьи являются новые возможности и вызовы, к которым приводит широкое распространение цифровых агентов в медицине. Под «цифровыми агентами» понимаются все устройства с ИИ, нейронные сети, мобильные приложения, чат-боты, используемые для диагностики и мониторинга состояния пациента. Наряду с преимуществами их внедрения существует ряд рисков, провоцируемых утратой человеческого фактора и недостатком регулирования новых технологий. В статье рассматриваются «этические ловушки», без устранения которых невозможно эффективное внедрение цифровых агентов в здравоохранение. К ним относятся: предвзятость, галлюцинации и вредная информация, конфиденциальность и согласие субъекта данных, а также прозрачность и объяснимость. Отмечено, что появляется все большее делегирование ИИ принятия решений о диагнозе и лечении, ограничивающее автономию врачей в пользу предварительно заданных алгоритмов. Такой феномен «цифрового патернализма» влечет за собой утрату доверия к квалифицированным врачам. Кроме того, в статье анализируется проблема социального расслоения, вызванная как ограничением доступа к современным технологиям для определенных слоев населения, так и созданием барьеров для людей, предпочитающих традиционные подходы к оказанию медицинской помощи. Делается вывод о необходимости тщательного обсуждения и разработки правил и нормативов для внедрения цифровых агентов в медицину, с учетом максимального уважения прав пациентов, сохранения человеческих отношений «врач–пациент» и этических ценностей.
В статье рассматриваются методологические ограничения применения (современной) этики добродетели в сфере искусственного интеллекта. Первое ограничение заключается в теоретической неопределенности «этики добродетели», так как в аспекте многих вопросов прикладной этики она инструментально истолковывается многими исследователями только как подход, отсылающий к аристотелевскому принципу середины и позволяющий артикулировать ключевые добродетели для ИИ. Такой подход является в корне неверным, так как он выборочно подходит к содержанию этики добродетели, вычленяя из нее лишь те принципы, которые способствуют его апробации. Второе ограничение связано с тем, что в аристотелизме и нео-аристотелизме ИИ не может рассматриваться в качестве морального агента sensu stricto. В связи с этим ИИ представляет собой систему, которая может только имитировать поведение морального агента, являющегося носителем определенных добродетелей. Несмотря на первичный отрицательный диагноз, в нео-аристотелизме можно выделить два направления, которые могут предложить новый подход к этике искусственного интеллекта. Экземпляризм позволяет иначе взглянуть на роль социальных роботов в жизни людей: они могут рассматриваться в качестве моральных образцов и нарративов, которые могут способствовать моральному развитию своих владельцев и менять их моральный облик в лучшую/худшую сторону. Подход возможностей М. К. Нуссбаум также сфокусирован на влиянии ИИ на качество человеческой жизни: в данном контексте речь идет о том, какие изменения могут претерпевать базовые человеческие возможности и как будут обеспечены минимальная социальная справедливость и человеческое достоинство при применении технологий ИИ.
В статье рассмотрены объективные предпосылки и основания для создания искусственного морального агента1 (ИМА), предложены аргументы как в пользу развития подобных проектов, так и демонстрирующие ограниченные возможности систем искусственного интеллекта (ИИ) в обладании субъектностью, необходимой для принятия моральных решений. Представлены подходы к понятию «искусственный моральный агент», рассмотрены некоторые концепции т. н. «машинной морали»2, обозначены изначальные условия/критерии, предъявляемые к ИМА. Проблема ИМА прослеживается во взаимосвязи с теориями в области аналитической этики и философии техники. На основании такого анализа предлагаются направления исследовательской и научноэкспериментальной работы по созданию ИМА. Обосновывается тезис о несостоятельности технической реализации универсального, человекоподобного ИМА со способностью решать сложные, разноплановые моральные дилеммы и задачи, действовать в широком и разнообразном поле моральных ситуаций. В связи с этим предлагается использовать новые понятия – вычислительный моральный квазиагент – МКА (computational moral quasi-agent), а когда решения принимаются на основе человеко-машинного взаимодействия – конвергентный, или гибридный моральный агент – ГМА (hybrid moral agent). В условиях недостаточной разработанности теоретической базы и наличия рисков внедрения ИМА предлагается сбалансированное, поэтапное развитие проектов на основе предметно-ориентированного, контекстуального подхода. Такой подход предполагает ответственное внедрение МКА применительно к отдельным классам систем (моделям), с конкретной прикладной задачей, в определенной физической или виртуальной среде. Целесообразность проектирования МКА или ГМА в каждом конкретном проекте должна быть оправдана, аргументирована и доказана.
Вредоносное программное обеспечение и вирусные фишинговые атаки уже несколько лет подряд остаются одним из самых действенных инструментов проникновения в информационную инфраструктуру. В подавляющем большинстве эксплуатация вредоносных программ связана с получением доступа к системам, содержащим конфиденциальную информацию, и ее хищением, что является наименее затратным способом доставки и выполнения вредоносного кода на устройстве получателя. Поскольку рост противоправных деяний, связанных с созданием, использованием и распространением вредоносных компьютерных программ, — это значимый фактор самовоспроизводства киберпреступлений, целесообразно рассмотрение возможностей оптимизации процесса их расследования, в частности изучение элементов, входящих в их криминалистическую характеристику. Объектом исследования выступили правоотношения, возникающие при расследовании преступлений в сфере компьютерной информации, связанных с созданием, использованием и распространением вредоносных компьютерных программ, основной целью при этом было раскрытие содержания элементов криминалистической характеристики указанных преступных деяний с учетом современного развития информационных технологий и тенденций эксплуатации вредоносного программного обеспечения. Теоретическую значимость исследования составляет описание криминалистической характеристики рассматриваемых преступлений, которая может послужить основой для формирования их информационной модели (цифровых двойников), что концептуально выступает научной новизной. Прикладное значение типовых криминалистических характеристик преступлений в сфере компьютерной информации — возможность их использования при формировании частных криминалистических методик расследования, создании новых криминалистических учетов на основе баз данных цифровых доказательств, а также разработки специализированного программного обеспечения в виде систем поддержки принятия решений, применяемых, например, при выдвижении следственных версий и планировании расследования.
В статье рассмотрены особенности внедрения систем искусственного интеллекта в машиностроительную отрасль в региональном разрезе. Выявлена значительная поляризация технологического развития между субъектами федерации, обусловленная диспропорцией в ресурсном обеспечении, кадровом потенциале и уровне цифровизации. С использованием сравнительного анализа успешных кейсов и региональной статистики определены ключевые факторы, способствующие и препятствующие имплементации решений на основе искусственного интеллекта. На основе изучения литературных источников и практического опыта систематизированы модели внедрения, а также сформулированы адресные рекомендации для органов власти, бизнес-сообщества и образовательных учреждений. Сделан вывод о необходимости формирования эффективной публично-частной партнерской модели как условия для преодоления региональной поляризации и перехода к созданию интеллектуальных, наукоемких продуктов и сервисов с учетом современных тенденций.
Исследование посвящено влиянию цифровой трансформации на устойчивое развитие металлургического комплекса России. Рассмотрены ключевые технологии (IoT, Big Data, ИИ) и их роль в повышении эффективности, управлении рисками и конкурентоспособности. Предложены критерии оценки цифровой зрелости: интеграция IoT, уровень аналитики, кибербезопасность. Выявлены барьеры: высокая стоимость внедрения, дефицит IT-кадров, правовые пробелы. Обоснована необходимость синергии государства и бизнеса для перехода к «умному производству» и роста экспортного потенциала. Цель - оценка влияния цифровизации на финансовые показатели и стратегическое позиционирование отрасли.
Перегруженность информацией - это проблема, которая является нормой современности. Ее следствием является отвлечение внимания специалистов и руководителей от действительно значимых для бизнеса задач, расходование временных и интеллектуальных ресурсов на решение рутинных малозначимых вопросов. Этот вызов может быть успешно преодолен благодаря применению искусственного интеллекта на базе нейросетей. В статье на примере ChatGPT рассматриваются ситуации неэффективной и эффективной постановки задач искусственному интеллекту в контексте деятельности специалиста по управлению персоналом. Даются рекомендации, как использовать нейросеть наилучшим способом - необходимо разделять задачи по степени важности и давать нейросетям разную степень полномочий в зависимости от категории задачи, предлагается делать это на основе матрицы Эйзенхауэра. Также необходимо корректно формулировать запросы для искусственного интеллекта. В статье даются конкретные рекомендации по созданию опорных подсказок для запросов нейросетям, алгоритм разработки запроса SMART-методом, демонстрируется результат использования такого подхода.
Выполнен обзор работ по этике использования искусственного интеллекта, редакционных стандартов СМИ, исследований применения нейросетей в журналистике. Цель исследования — выявление этических установок и практического опыта применения нейросетей студентами медианаправлений Национального исследовательского Нижегородского государственного университета им. Н. И. Лобачевского и сопоставление их установок и опыта с требованиями медиаиндустрии Нижегородского региона. Представлен анализ результатов интернет-опроса студентов университета медианаправлений (N=255), а также журналистов 20 редакций Нижнего Новгорода (N=81) о практике и этических установках использования нейросетей. Сообщается, что большинство журналистов отмечают факт применения нейросетей в работе редакций. Отмечается, что инициатива освоения технологий исходит от самих сотрудников, которые используют их параллельно с остальными рабочими процессами. Установлено, что освоение нейросетей студентами сейчас происходит в период обучения в вузе, уровень навыков растет к старшим курсам. Подчеркивается, что, по мнению журналистов, для выпускника важнее не технические ИИ-навыки, а навыки редакторской оценки и фактчекинга генеративного контента, ключевыми пока остаются иные профессиональные требования, не связанные с ИИ. Не выявлено разрыва в этических представлениях студентов и практиков, причем часто именно студенты демонстрируют большую «этическую осторожность».
В статье исследуется вопрос о кантовской точке зрения на моральный статус искусственного интеллекта и перспективы применения элементов философии Канта для оценки ИИ как морального агента. Показано, что к этике Канта применима «стандартная» теория агентности Г. Франкфурта. Подход Канта к моральному статусу субъекта определяется природой агента – структурой способностей души, среди которых ведущую роль играют воля и разум, а также чувственность. Показана связь способностей души в системе Канта со свободой и моральной автономией. Раскрывается сложная двоякая функция чувственности в ограничении практической свободы и в воспитании свободы морального агента. С точки зрения философии Канта искусственный моральный агент невозможен с учетом сложности природы людей – и может выступать только квазиморальным агентом: внешне сходным с подлинными моральными агентами, но не сходным с ними по сути. Проблематичным в ряде аспектов оказывается также статус легального агента и использование права вместо морали в качестве основы машинной этики. В то же время природа ИИ сулит, при условии обучения, возможности преодоления определенных ограничений человеческой природы. Рассматриваются элементы альтернативного функционального подхода, сфокусированного на вопросах ответственности, моральных ожиданий в сфере ИИ и общественных последствий применения ИИ. Итоговая основа для правового статуса ИИ выявляется в кантовской метафизике права: рабы или холопы, существа, имеющие обязанности, но не имеющие прав, что согласуется с ролью ИИ как строго ограниченного в своей свободе помощника.
Рассматривается формульность немецкого языка как мнимая и реальная трудность в практике перевода с помощью нейросетей на русский язык. Цель статьи заключается в представлении немецкого языка как контролируемого для формульных структур в нейропереводчике DeepL: исследованы критерии, рестрикции, оценка результата. В качестве материалов привлекаются 120 примеров немецких формульных конструкций двух классов: глагольно-номинальных словосочетаний и парных формул. Материалы для анализа извлечены из Цифрового словаря немецкого языка (DWDS). Представлена авторская разработка: дизайн двухэтапного эксперимента с целью анализа переводческих решений для немецких формул (случайная выборка). Методы, используемые в статье, носят характер наблюдения над правилами лексического уровня для немецкого языка как контролируемого. Анализ лексических рестрикций в немецком контролируемом естественном языке для формульных конструкций используется в комбинации с контекстуальным методом для оценки качества перевода. В новейшем нейропереводчике DeepL выявлена особая стратегия для перевода устойчивых формульных выражений разной структуры. Установлено, что нейронный подход к машинному переводу стремится воспроизводить когнитивные модели человеческого мышления, однако использование наработанных переводческих решений расценено в статье как преимущество. Автор статьи подчеркивает, что не ставит задачу давать оценку исследуемому продукту — нейросетевому переводчику, так как он является коммерческой разработкой немецкой корпорации и предназначен для текстов определенной стилистической специфики.
Цель статьи – показать, что представляет собой сегодня проблемное поле цифровой этики, и выявить те проблемы, решение которых позволит рассматривать цифровую этику как самостоятельное направление в рамках философской этики. Для этого проводится анализ моральных вопросов и решений, появляющихся в результате все нарастающей цифровизации человеческой деятельности. Структура проблемного поля определяется относительно степени теоретической проработанности собственного предмета цифровой этики и описывается в аспектах прикладной и философской этики. В прикладном аспекте также выделяются два направления: неспецифическое – общеэтические проблемы (конфиденциальность, безопасность, ложь и т. д.); специфическое – новые проблемы, порождаемые цифровизацией (ИИ, автоматизация принятия решений). К философской части относятся вопросы, возникшие из рефлексии по поводу самого феномена цифровизации и определения фундаментальных понятий. Определения также разделяются на два типа: сущностные – о том, что есть цифровой субъект, цифровое действие; субстанциональные – о том, что есть цифровой мир / реальность и т. д. Показывается, что в рамках прикладной этики цифровая этика не формирует своего предмета, что порождает сомнения относительно ее будущего развития, а также не дает решения проблемы дегуманизации, которая обнаруживается в практике применения цифровых технологий в двух видах: посредством отчуждения принятия решения от человека, объективация человека (прямая дегуманизация) и расчеловечивание человеком самого себя посредством использования цифровых технологий как внеморальных (обратная дегуманизация). Однако на данный момент не существует не только самого теоретического фундамента, но даже ясной постановки проблемы его концептуализации. Делается вывод, что для развития цифровой этики как полноценного тематического направления в рамках философской этики для внутренне связного развития ее проблематики требуется концептуализация как цифрового существования (в сущностном и субстанциональном аспектах), так и соотношения цифрового и нецифрового существования.