В статье рассматриваются методологические ограничения применения (современной) этики добродетели в сфере искусственного интеллекта. Первое ограничение заключается в теоретической неопределенности «этики добродетели», так как в аспекте многих вопросов прикладной этики она инструментально истолковывается многими исследователями только как подход, отсылающий к аристотелевскому принципу середины и позволяющий артикулировать ключевые добродетели для ИИ. Такой подход является в корне неверным, так как он выборочно подходит к содержанию этики добродетели, вычленяя из нее лишь те принципы, которые способствуют его апробации. Второе ограничение связано с тем, что в аристотелизме и нео-аристотелизме ИИ не может рассматриваться в качестве морального агента sensu stricto. В связи с этим ИИ представляет собой систему, которая может только имитировать поведение морального агента, являющегося носителем определенных добродетелей. Несмотря на первичный отрицательный диагноз, в нео-аристотелизме можно выделить два направления, которые могут предложить новый подход к этике искусственного интеллекта. Экземпляризм позволяет иначе взглянуть на роль социальных роботов в жизни людей: они могут рассматриваться в качестве моральных образцов и нарративов, которые могут способствовать моральному развитию своих владельцев и менять их моральный облик в лучшую/худшую сторону. Подход возможностей М. К. Нуссбаум также сфокусирован на влиянии ИИ на качество человеческой жизни: в данном контексте речь идет о том, какие изменения могут претерпевать базовые человеческие возможности и как будут обеспечены минимальная социальная справедливость и человеческое достоинство при применении технологий ИИ.
Идентификаторы и классификаторы
- SCI
- Философия
Вопрос возможности создания этичного искусственного интеллекта является одним из наиболее обсуждаемых в области прикладной этики, так как он не только отражает актуальную повестку современного общества, но и подсвечивает проблемы, с которыми сталкиваются нормативные этические теории. Каждая из них вносит свой вклад в осмысление феномена ИИ и предлагает ряд этических ограничений, связанных с его практическим применением. В этом контексте речь в большинстве случаев идет о спектре деонтологических и консеквенциалистских подходов: все они претендуют на обладание статусом универсальности, следовательно, их принципы, распространяемые на искусственный интеллект, также носят характер всеобщности. Однако это не всегда представляется возможным в силу того, что предметная область ИИ остается довольно широкой и принципы деонтологии и консеквенциализма, применяемые к интеллектуальным системам, не всегда проходят проверку на прочность в различных контекстуальных условиях [Cappuccio et al., 2020, 3–4; Allen et al., 2010, 252–254; Wallach, Allen, 2009, 84–86, 95–97]. В связи с последним аспектом в исследовательской литературе можно все чаще и чаще встретить упоминание и третьего теоретического подхода, который помогает преодолеть ограничения деонтологии и консеквенциализма, – этику добродетели. Под этикой добродетели в сфере ИИ понимается такой подход, который предлагает рассматривать определенный набор добродетелей, которые могут помочь регулировать работу систем искусственного интеллекта. Несмотря на обилие дискурсов о добродетели, некоторые авторы [Coleman, 2001, 250; Klincewicz, 2016; Berberich, Diepold, 2018; Li, 2021; Hagendorff, 2022, 4–6; Boddington, 2023, 264– 272]1 указывают на аристотелевскую этику добродетели в качестве теоретической основы: в их научных работах это подтверждается наличием ссылок на аристотелевское понимание добродетели, контекстуальность фронезиса (практической мудрости, рассудительности) и аристотелевское учение о середине; далее авторы составляют подборку из наиболее релевантных, на их взгляд, добродетелей, которые могут быть эксплицированы в область этики ИИ или же они могут определять функционирование ИИ как морального агента.
Список литературы
1. Аристотель. Никомахова этика / Пер. Н.В. Брагинской // Аристотель. Соч.: в 4 т. Т. 4. М.: Мысль, 1983. С. 295-374.
2. Aristotle. “Nikomahova etika” [The Nicomachean Ethics], trans. by N.V. Braginskaya, in: Aristotle, Sochineniya v 4 t. [Works in 4 Vols.], Vol. 4. Moscow: Mysl’ Publ., 1983, pp. 295-374. (In Russian).
3. Шохин В.К. Этика добродетели - “старая” и “новая” // Шохин В.К. Агатология: Совре-менность и классика. М.: Канон+, 2014. С. 19-49.
4. Shohin, V.K. “Etika dobrodeteli - “staraya” i “novaya” [Virtue Ethics - “Old” and “New”], in: V.K. Shohin, Agatologiya: Spvremennost’ i klassika [Agathology: Modernity and Classics]. Moscow: Kanon+ Publ., 2014, pp. 19-49. (In Russian).
5. Allen, C., Varner, G., Zinser, G. “Prolegomena to Any Future Artificial Moral Agent”, Journal of Experimental & Theoretical Artificial Intelligence, 2000, Vol. 12, No. 3, pp. 251-261.
6. Berberich, N., Diepold, K. The Virtuous Machine - Old Ethics for New Technology? [https://arxiv.org/pdf/1806.10322.pdf, accessed on 17.03.2024].
7. Boddington, P. AI Ethics. London: Springer, 2023.
8. Buccella, A. “AI for All Is a Matter of Social Justice”, AI and Ethics, 2023, No. 3, pp. 1143-1152.
9. Cappuccio, M., Peeters, A., McDonald, W. “Sympathy for Dolores: Moral Consideration for Robots Based on Virtue and Recognition”, Philosophy & Technology, 2019, pp. 1-23.
10. Cappuccio, M., Sandoval, E.B., Mubin, O., Obaid, M., Velonaki, M. “Can Robots Make Us Better Humans? Virtuous Robotics and the Good Life with Artificial Agents”, International Journal of Social Robotics, 2020, pp. 1-16.
11. Cappuccio, M., Sandoval, E.B., Mubin, O., Obaid, M., Velonaki, M. “Robotics Aids for Character Building: More than Just Another Enabling Condition”, International Journal of Social Robotics, 2021, No. 13, pp. 1-5.
12. Coleman, K.G. “Android Arete: Toward a Virtue Ethic for Computational Agents”, Ethics and Information Technology, 2001, No. 3, pp. 247-265.
13. Constantinescu, M., Crisp, R. “Can Robotic AI Systems Be Virtuous and Why Does This Matter?”, International Journal of Social Robotics, 2022, No. 14, pp. 1547-1557.
14. Crisp, R. “Modern Moral Philosophy and the Virtues”, How Should One Live? Essays on the Virtues, ed. by R. Crisp. Oxford: Oxford UP, 1996, pp. 1-18.
15. Gardiner, S.M. Virtue Ethics, Old and New. Ithaka and London: Cornell UP, 2005.
16. Hagendorff, Th. “A Virtue-Based Framework to Support Putting AI Ethics into Practice”, Philosophy & Technology, 2022, pp. 1-24.
17. Irwin, T.H. “The Virtues: Theory and Common Sense in Greek Philosophy”, How Should One Live? Essays on the Virtues, ed. by R. Crisp. Oxford: Oxford UP, 1996, pp. 37-56.
18. Klincewicz, M. “Artificial Intelligence as a Means to Moral Enhancement”, Studies in Logic, Grammar and Rhetoric, 2016, No. 48, pp. 171-187.
19. Li, O. “Problems with “Friendly AI”, Ethics and Information Technology, 2021, pp. 1-8.
20. London, A.J., Heidari, H. Beneficent Intelligence: A Capability Approach to Modeling Bene-fit, Assistance, and Associated Moral Failures through AI Systems [https://arxiv.org/abs/2308.00868, accessed on 29.02.2024].
21. Nussbaum, M.C. Creating Capabilities: The Human Development Approach. Cambridge, Massachusetts; London: The Belknap Press of Harvard UP, 2011.
22. Nussbaum, M.C. “Virtue Ethics: A Misleading Category?”, The Journal of Ethics, 1999, No. 3, pp. 163-201.
23. Oosterlaken, I. Taking a Capability Approach to Technology and Its Design: A Philosophical Exploration. Doctoral Dissertation. Enschede, 2013.
24. Sharkey, A. “Can We Program or Train Robots to Be Good?”, Ethics and Information Tech-nology, 2020, No. 22, pp. 283-295.
25. Sparrow, R. “Why Machines Cannot Be Moral”, AI & Society, 2020, pp. 1-9.
26. Sullins, J.P. “Artificial Phronesis: What It Is and What It Is Not”, Science, Technology, and Virtues: Contemporary Perspectives, eds. E. Ratti, Th.A. Stapleford. Oxford: Oxford UP, 2021, pp. 136-146.
27. Wallach, W., Allen, C. Moral Machines: Teaching Robots Right from Wrong. Oxford: Oxford UP, 2009.
28. Zagzebski, L.T. “Exemplarist Virtue Theory”, Metaphilosophy, 2010, Vol. 41, No. 1-2, pp. 41-57.
Выпуск
Другие статьи выпуска
В статье представлена методика – «Индекс “этичности” систем искусственного интеллекта», задача разработки которой заключалась в оценке реальных и потенциальных рисков этического характера, возникающих на всех этапах жизненного цикла ИИ-систем. Сама система никакой «этичностью» не обладает, тогда как социально приемлемыми, с моральной точки зрения допустимыми и необходимыми, могут быть действия разработчиков и поставщиков данных в процессе ее проектирования и обучения, а также операторов и потребителей в ходе ее пилотирования и внедрения. Ряд вопросов, связанных, например, с конфиденциальностью персональных данных, отчасти регулируется актуальным законодательством, тогда как большая часть этических рисков лишь прогнозируется. Представленная методика разработана: для целей медицинского сообщества, нуждающегося в подтверждении моральной состоятельности и соответствия профессиональным стандартам внедрения новейших технологий в клиническую практику; в качестве инструмента, который может быть использован в деятельности этических комиссий по аналогии с биоэтическими комитетами при согласовании соответствующих медицинских исследований с участием ИИ; как дополнение к процедурам добровольной технической сертификации, а также в судебно-медицинской экспертизе. В «Индексе» отражены наиболее острые этические проблемы – доверия, распределенной ответственности, конфиденциальности данных, прозрачности и объяснимости ИИ-моделей, справедливости и недискриминации, обсуждаемые в современной этике в связи с рисками развития ИИ. Уникальность «Индекса» заключается в лежащем в его основе междисциплинарном подходе, включающем в себя методологию «дизайна ценностей» и «полевое» социологическое исследование, позволившее совместить теоретические гуманитарные подходы к пониманию содержания ключевых моральных понятий с их трактовкой в профессиональной медицинской этике. Это делает «Индекс» не только интересным с теоретической точки зрения как способ формализации этических категорий, но и полезным с практической точки зрения – как пример прикладного значения этики и использования ее инструментария для решения социально значимых задач.
Основной целью статьи является обоснование оптимальности концепции распределенной морали Лучано Флориди для описания модели отношения ответственности в сложных системах «человек – искусственный интеллект» (ИИ). Достаточно высокий уровень автономии в функционировании ИИ ставит под вопрос классический инструментализм в отношении этой технологии, так как она оказывается способной на принципиально неконтролируемые со стороны человека действия в процессе выполнения поставленной перед ней задачи. По этой же причине классическое определение моральной ответственности постепенно перестает соответствовать действительному положению дел в области разработки ИИ, что зачастую приводит к проблемам, тормозящим ее развитие. Поэтому в статье осуществляется концептуализация нового, соответствующего типу технологии способа описания отношений ответственности в сфере этики ИИ. Для достижения этой цели ИИ рассматривается как обладающий агентностью участник различных взаимодействий (на основе критериев агентности Флориди), в том числе и социальных, но при этом ему не приписывается подлинная интенциональность, мотивация, осознанность и другие свойства, являющиеся необходимыми для атрибутирования агентности в классической модели отношения ответственности. Кроме обращения к описанию критериев агентности Флориди, обоснование такого рассмотрения ИИ в статье осуществляется с опорой на концепт текучести Аннамари Мол и Марианы де Лаэт, который разрабатывается ими в том числе и для обозначения способности технологий обладать агентностью без наличия у них свойств, считающихся необходимыми для атрибутирования агентности в классической модели описания роли технологий в социальных процессах. Технология ИИ представляется как сложная гетерогенная социотехническая система, конструируемая как человеческими, так и нечеловеческими агентами. Риск ниве - лирования значимости ответственности в такой системе преодолевается на концептуальном уровне посредством адаптации подхода объект-ориентированной морали Флориди. Смена акцента с субъекта действия на объект воздействия наделяет моральной значимостью всю ту сумму морально нейтральных действий, которые совершаются агентами в рамках социотехнической системы. Поскольку она производит морально значимые эффекты и воздействия, то выступает и носителем отношения ответственности, которое, как показано в статье, распространяется на каждого агента системы в равной мере, интенсифицируя тем самым моральную ответственность в сфере ИИ.
Предметом данной статьи являются новые возможности и вызовы, к которым приводит широкое распространение цифровых агентов в медицине. Под «цифровыми агентами» понимаются все устройства с ИИ, нейронные сети, мобильные приложения, чат-боты, используемые для диагностики и мониторинга состояния пациента. Наряду с преимуществами их внедрения существует ряд рисков, провоцируемых утратой человеческого фактора и недостатком регулирования новых технологий. В статье рассматриваются «этические ловушки», без устранения которых невозможно эффективное внедрение цифровых агентов в здравоохранение. К ним относятся: предвзятость, галлюцинации и вредная информация, конфиденциальность и согласие субъекта данных, а также прозрачность и объяснимость. Отмечено, что появляется все большее делегирование ИИ принятия решений о диагнозе и лечении, ограничивающее автономию врачей в пользу предварительно заданных алгоритмов. Такой феномен «цифрового патернализма» влечет за собой утрату доверия к квалифицированным врачам. Кроме того, в статье анализируется проблема социального расслоения, вызванная как ограничением доступа к современным технологиям для определенных слоев населения, так и созданием барьеров для людей, предпочитающих традиционные подходы к оказанию медицинской помощи. Делается вывод о необходимости тщательного обсуждения и разработки правил и нормативов для внедрения цифровых агентов в медицину, с учетом максимального уважения прав пациентов, сохранения человеческих отношений «врач–пациент» и этических ценностей.
В статье рассмотрены объективные предпосылки и основания для создания искусственного морального агента1 (ИМА), предложены аргументы как в пользу развития подобных проектов, так и демонстрирующие ограниченные возможности систем искусственного интеллекта (ИИ) в обладании субъектностью, необходимой для принятия моральных решений. Представлены подходы к понятию «искусственный моральный агент», рассмотрены некоторые концепции т. н. «машинной морали»2, обозначены изначальные условия/критерии, предъявляемые к ИМА. Проблема ИМА прослеживается во взаимосвязи с теориями в области аналитической этики и философии техники. На основании такого анализа предлагаются направления исследовательской и научноэкспериментальной работы по созданию ИМА. Обосновывается тезис о несостоятельности технической реализации универсального, человекоподобного ИМА со способностью решать сложные, разноплановые моральные дилеммы и задачи, действовать в широком и разнообразном поле моральных ситуаций. В связи с этим предлагается использовать новые понятия – вычислительный моральный квазиагент – МКА (computational moral quasi-agent), а когда решения принимаются на основе человеко-машинного взаимодействия – конвергентный, или гибридный моральный агент – ГМА (hybrid moral agent). В условиях недостаточной разработанности теоретической базы и наличия рисков внедрения ИМА предлагается сбалансированное, поэтапное развитие проектов на основе предметно-ориентированного, контекстуального подхода. Такой подход предполагает ответственное внедрение МКА применительно к отдельным классам систем (моделям), с конкретной прикладной задачей, в определенной физической или виртуальной среде. Целесообразность проектирования МКА или ГМА в каждом конкретном проекте должна быть оправдана, аргументирована и доказана.
В статье проанализированы постановка и решение Адамом Смитом проблемы безосновательного стыда, т. е. стыда, который не связан с действительными нарушениями моральных принципов и возникает в связи с тем, что окружающие агента люди осуждают его или считают его положение постыдным. Постановка проблемы осуществляется Смитом в связи с обсуждением четырех природных мотивов: 1) любви к похвале, 2) любви к тому, чтобы быть достойным похвалы, 3) страха осуждения, 4) страха оказаться достойным осуждения. Анализируя их, Смит фиксирует примечательную асимметрию: незаслуженная похвала не доставляет мудрому и добродетельному человеку удовольствия, а незаслуженное осуждение тем не менее причиняет ему довольно интенсивное страдание. Оно «бросает тень позора и бесчестья на его характер», заставляет чувствовать себя «униженным» и т. д. В одних фрагментах «Теории нравственных чувств» Смит если не одобряет такие переживания, то, по крайней мере, рекомендует предпринимать все меры, предотвращающие незаслуженное осуждение. В других фрагментах он видит в том, что переживания и поведение морального агента зависят от незаслуженного осуждения, проявление очевидной моральной слабости («рабство у мира»). В первом случае речь идет в основном о незаслуженном осуждении на основе ошибочного приписывания моральному агенту поступков и мотивов, во втором – на основе применения к его поступкам и мотивам искаженных критериев моральной оценки. Важными примерами стыда, возникающего на основе искаженных критериев, являются стыд бедности и стыд «немодных добродетелей». Стыд бедности и соответствующую ему гордость богатством, несмотря на их укорененность в человеческой природе и полезность для общества, Смит, в отличие от Дэвида Юма, считает безосновательными. Стыд «немодных добродетелей» имеет такой статус по определению.
История аристотелевского понятия μεγαλόψυχος (Величавый) простирается на почти два с половиной тысячелетия и является историей утраты собственно аристотелевского понятия. Ральф Эмерсон принадлежит к тем мыслителям, во взглядах которых понятие великодушия является не случайным и значимым. В статье предлагается увидеть его в первую очередь в непосредственном соотнесении с образом Величавого у Аристотеля. Главным источником при обращении к Великодушному Эмерсона является его известное эссе “Self-reliance”. Оно пронизано стремлением освободить человека от конформизма, подражательства навязываемым социумом представлениям, нормам, оценкам, от самого взгляда на них и того, как он видится со стороны. Это освобождение позволяет человеку положиться на самого себя и возвыситься до сверх-духа, узреть таким образом истину, в первую очередь – о самом себе. Это стремление Эмерсона роднит его с аристотелевской попыткой последовательно помыслить человека как начало поступка и мира, в результате которой и рождается образ Величавого, это родство проявляется в перекличке многих тем и идей. Так, Эмерсон стремится освободить человека не только от социума, но и от его собственного прошлого и будущего, т. е. помыслить его в актуальном настоящем, вне времени, что перекликается с аристотелевским пониманием поступка как актуальной действительности, как целого и самодостаточного. Не соглашаясь с противопоставлением Аристотеля и Эмерсона на основе понимания ими роли внешних благ или сведения его к отдельным суждениям, автор видит ключевое отличие в следующем: Величавый задает своим решением-поступком мир людей, полис, он самодостаточен и единственен, тогда как Великодушный стремится опереться на себя путем отвержения социума, будучи в первую очередь познающим, а не поступающим, он не достигает самодостаточности и единственности.
В статье проводится критический разбор книги видного немецкого филолога-классика Альбрехта Диле «Золотое правило» (1962). Книга, выдающаяся для своего времени, до сих пор сохраняет свою ценность благодаря огромному материалу из древних литературных источников, по преимуществу античных, касающемуся принципа воздаяния и Золотого правила (ЗП), а также Заповеди любви. В своей совокупности этот материал, тщательно проанализированный Диле, позволяет по-новому взглянуть на некоторые стороны генезиса морали и роли в этом процессе эволюции принципа воздаяния и его отдельной трансформации в золотое правило. Заслуживают внимания указания Диле на роль софистов и их философии образования в формировании ЗП, а также его взгляд на исторически ранние образчики формулы ЗП. Оценка Диле ЗП в качестве своеобразного, утонченного выражения принципа воздаяния, его определяющей роли в формировании ценностного стандарта ЗП, привела Диле к выводу о слабой, вопреки традиционной интерпретации, сопряженности ЗП с Заповедью любви и, соответственно, не такой высокой его важности для христианской этики. На основе анализа взглядов и характера аргументации, представленных в книге, в статье делается вывод о том, что у Диле было недостаточно разработанное теоретическое представление о ЗП, в котором не учитывалось во всей полноте своеобразие его нормативного содержания и функциональных особенностей, а также его роль в формировании морального в собственном смысле слова воззрения на мир.
В статье рассматриваются различные теологические интерпретации евангельского сюжета, называемого «самоуничижением Христа», или «кенозисом». Автор считает, что эти интерпретации являются выражением основных типов морально-философского восприятия жизни. В статье выделяются три версии кенозиса: восхождение, проникновение и бессилие. Первая версия предполагает, что жизнь Христа представляла собой совершенствование, в процессе которого происходило преодоление условий земной жизни человека; вторая утверждает, что Христос не преодолевал условий земного существования, но демонстрировал, как в рамках этих условий возможно достижение Царства Божьего; третья исходит из того, что кенозис – это история, раскрывающая бессилие Бога перед лицом им же созданного мира. Эти три версии кенозиса соответствуют трем типам морально-философского отношения к жизни. Первое отношение можно определить как «футуристическое»: мир с необходимостью должен стать лучше того, каким он есть. Второе отношение определяется как «презентное»: мир к лучшему изменить нельзя, но индивидуум всегда может обрести в нем свободу и самодостаточность. Третье отношение определяется как «восполняющее»: история человечества не имеет какой-то восходящей направленности, но подвластна некоторым нашим волевым усилиям, которые могут быть как конструктивными, т. е. меняющими существующие нормы и ценности в соответствии с обстоятельствами, так и деструктивными, т. е. направленными на насилие и разрушение. Для современного секуляризованного мира наиболее актуальным является, конечно, последнее отношение и свойственная ему дихотомия.
Издательство
- Издательство
- Институт философии
- Регион
- Россия, Москва
- Почтовый адрес
- 109240, г. Москва, ул. Гончарная, д. 12, стр. 1.
- Юр. адрес
- 109240, г. Москва, ул. Гончарная, д. 12, стр. 1.
- ФИО
- Гусейнов Абдусалам Абдулкеримович (Директор)
- E-mail адрес
- iph@iphras.ru
- Контактный телефон
- +7 (495) 6979109
- Сайт
- https:/iphras.ru