Архив статей

Цифровые агенты в медицине: новые возможности и вызовы (2024)

Предметом данной статьи являются новые возможности и вызовы, к которым приводит широкое распространение цифровых агентов в медицине. Под «цифровыми агентами» понимаются все устройства с ИИ, нейронные сети, мобильные приложения, чат-боты, используемые для диагностики и мониторинга состояния пациента. Наряду с преимуществами их внедрения существует ряд рисков, провоцируемых утратой человеческого фактора и недостатком регулирования новых технологий. В статье рассматриваются «этические ловушки», без устранения которых невозможно эффективное внедрение цифровых агентов в здравоохранение. К ним относятся: предвзятость, галлюцинации и вредная информация, конфиденциальность и согласие субъекта данных, а также прозрачность и объяснимость. Отмечено, что появляется все большее делегирование ИИ принятия решений о диагнозе и лечении, ограничивающее автономию врачей в пользу предварительно заданных алгоритмов. Такой феномен «цифрового патернализма» влечет за собой утрату доверия к квалифицированным врачам. Кроме того, в статье анализируется проблема социального расслоения, вызванная как ограничением доступа к современным технологиям для определенных слоев населения, так и созданием барьеров для людей, предпочитающих традиционные подходы к оказанию медицинской помощи. Делается вывод о необходимости тщательного обсуждения и разработки правил и нормативов для внедрения цифровых агентов в медицину, с учетом максимального уважения прав пациентов, сохранения человеческих отношений «врач–пациент» и этических ценностей.

Может ли искусственный интеллект быть «этичным»? Перспектива (современной) этики добродетели (2024)

В статье рассматриваются методологические ограничения применения (современной) этики добродетели в сфере искусственного интеллекта. Первое ограничение заключается в теоретической неопределенности «этики добродетели», так как в аспекте многих вопросов прикладной этики она инструментально истолковывается многими исследователями только как подход, отсылающий к аристотелевскому принципу середины и позволяющий артикулировать ключевые добродетели для ИИ. Такой подход является в корне неверным, так как он выборочно подходит к содержанию этики добродетели, вычленяя из нее лишь те принципы, которые способствуют его апробации. Второе ограничение связано с тем, что в аристотелизме и нео-аристотелизме ИИ не может рассматриваться в качестве морального агента sensu stricto. В связи с этим ИИ представляет собой систему, которая может только имитировать поведение морального агента, являющегося носителем определенных добродетелей. Несмотря на первичный отрицательный диагноз, в нео-аристотелизме можно выделить два направления, которые могут предложить новый подход к этике искусственного интеллекта. Экземпляризм позволяет иначе взглянуть на роль социальных роботов в жизни людей: они могут рассматриваться в качестве моральных образцов и нарративов, которые могут способствовать моральному развитию своих владельцев и менять их моральный облик в лучшую/худшую сторону. Подход возможностей М. К. Нуссбаум также сфокусирован на влиянии ИИ на качество человеческой жизни: в данном контексте речь идет о том, какие изменения могут претерпевать базовые человеческие возможности и как будут обеспечены минимальная социальная справедливость и человеческое достоинство при применении технологий ИИ.

Этико-философские проблемы проектирования искусственного морального агента (2024)

В статье рассмотрены объективные предпосылки и основания для создания искусственного морального агента1 (ИМА), предложены аргументы как в пользу развития подобных проектов, так и демонстрирующие ограниченные возможности систем искусственного интеллекта (ИИ) в обладании субъектностью, необходимой для принятия моральных решений. Представлены подходы к понятию «искусственный моральный агент», рассмотрены некоторые концепции т. н. «машинной морали»2, обозначены изначальные условия/критерии, предъявляемые к ИМА. Проблема ИМА прослеживается во взаимосвязи с теориями в области аналитической этики и философии техники. На основании такого анализа предлагаются направления исследовательской и научноэкспериментальной работы по созданию ИМА. Обосновывается тезис о несостоятельности технической реализации универсального, человекоподобного ИМА со способностью решать сложные, разноплановые моральные дилеммы и задачи, действовать в широком и разнообразном поле моральных ситуаций. В связи с этим предлагается использовать новые понятия – вычислительный моральный квазиагент – МКА (computational moral quasi-agent), а когда решения принимаются на основе человеко-машинного взаимодействия – конвергентный, или гибридный моральный агент – ГМА (hybrid moral agent). В условиях недостаточной разработанности теоретической базы и наличия рисков внедрения ИМА предлагается сбалансированное, поэтапное развитие проектов на основе предметно-ориентированного, контекстуального подхода. Такой подход предполагает ответственное внедрение МКА применительно к отдельным классам систем (моделям), с конкретной прикладной задачей, в определенной физической или виртуальной среде. Целесообразность проектирования МКА или ГМА в каждом конкретном проекте должна быть оправдана, аргументирована и доказана.

Бесстрастный холоп: кантианский подход к агентности искусственного интеллекта* (2025)

В статье исследуется вопрос о кантовской точке зрения на моральный статус искусственного интеллекта и перспективы применения элементов философии Канта для оценки ИИ как морального агента. Показано, что к этике Канта применима «стандартная» теория агентности Г. Франкфурта. Подход Канта к моральному статусу субъекта определяется природой агента – структурой способностей души, среди которых ведущую роль играют воля и разум, а также чувственность. Показана связь способностей души в системе Канта со свободой и моральной автономией. Раскрывается сложная двоякая функция чувственности в ограничении практической свободы и в воспитании свободы морального агента. С точки зрения философии Канта искусственный моральный агент невозможен с учетом сложности природы людей – и может выступать только квазиморальным агентом: внешне сходным с подлинными моральными агентами, но не сходным с ними по сути. Проблематичным в ряде аспектов оказывается также статус легального агента и использование права вместо морали в качестве основы машинной этики. В то же время природа ИИ сулит, при условии обучения, возможности преодоления определенных ограничений человеческой природы. Рассматриваются элементы альтернативного функционального подхода, сфокусированного на вопросах ответственности, моральных ожиданий в сфере ИИ и общественных последствий применения ИИ. Итоговая основа для правового статуса ИИ выявляется в кантовской метафизике права: рабы или холопы, существа, имеющие обязанности, но не имеющие прав, что согласуется с ролью ИИ как строго ограниченного в своей свободе помощника.

Цифровая этика: становление проблематики (2025)

Цель статьи – показать, что представляет собой сегодня проблемное поле цифровой этики, и выявить те проблемы, решение которых позволит рассматривать цифровую этику как самостоятельное направление в рамках философской этики. Для этого проводится анализ моральных вопросов и решений, появляющихся в результате все нарастающей цифровизации человеческой деятельности. Структура проблемного поля определяется относительно степени теоретической проработанности собственного предмета цифровой этики и описывается в аспектах прикладной и философской этики. В прикладном аспекте также выделяются два направления: неспецифическое – общеэтические проблемы (конфиденциальность, безопасность, ложь и т. д.); специфическое – новые проблемы, порождаемые цифровизацией (ИИ, автоматизация принятия решений). К философской части относятся вопросы, возникшие из рефлексии по поводу самого феномена цифровизации и определения фундаментальных понятий. Определения также разделяются на два типа: сущностные – о том, что есть цифровой субъект, цифровое действие; субстанциональные – о том, что есть цифровой мир / реальность и т. д. Показывается, что в рамках прикладной этики цифровая этика не формирует своего предмета, что порождает сомнения относительно ее будущего развития, а также не дает решения проблемы дегуманизации, которая обнаруживается в практике применения цифровых технологий в двух видах: посредством отчуждения принятия решения от человека, объективация человека (прямая дегуманизация) и расчеловечивание человеком самого себя посредством использования цифровых технологий как внеморальных (обратная дегуманизация). Однако на данный момент не существует не только самого теоретического фундамента, но даже ясной постановки проблемы его концептуализации. Делается вывод, что для развития цифровой этики как полноценного тематического направления в рамках философской этики для внутренне связного развития ее проблематики требуется концептуализация как цифрового существования (в сущностном и субстанциональном аспектах), так и соотношения цифрового и нецифрового существования.