В статье рассмотрены объективные предпосылки и основания для создания искусственного морального агента1 (ИМА), предложены аргументы как в пользу развития подобных проектов, так и демонстрирующие ограниченные возможности систем искусственного интеллекта (ИИ) в обладании субъектностью, необходимой для принятия моральных решений. Представлены подходы к понятию «искусственный моральный агент», рассмотрены некоторые концепции т. н. «машинной морали»2, обозначены изначальные условия/критерии, предъявляемые к ИМА. Проблема ИМА прослеживается во взаимосвязи с теориями в области аналитической этики и философии техники. На основании такого анализа предлагаются направления исследовательской и научноэкспериментальной работы по созданию ИМА. Обосновывается тезис о несостоятельности технической реализации универсального, человекоподобного ИМА со способностью решать сложные, разноплановые моральные дилеммы и задачи, действовать в широком и разнообразном поле моральных ситуаций. В связи с этим предлагается использовать новые понятия – вычислительный моральный квазиагент – МКА (computational moral quasi-agent), а когда решения принимаются на основе человеко-машинного взаимодействия – конвергентный, или гибридный моральный агент – ГМА (hybrid moral agent). В условиях недостаточной разработанности теоретической базы и наличия рисков внедрения ИМА предлагается сбалансированное, поэтапное развитие проектов на основе предметно-ориентированного, контекстуального подхода. Такой подход предполагает ответственное внедрение МКА применительно к отдельным классам систем (моделям), с конкретной прикладной задачей, в определенной физической или виртуальной среде. Целесообразность проектирования МКА или ГМА в каждом конкретном проекте должна быть оправдана, аргументирована и доказана.
Идентификаторы и классификаторы
- SCI
- Философия
Культура человека, возникшая из примитивных форм внутриродовой жизни и возделывания простейшей сельхозпродукции, подошла к рубежу создания систем, способных имитировать человекоподобные мыслительные операции и воспроизводить отдельные возможности человеческого разума или отдельные функции мышления. В процессе реализации новых амбициозных задач в этой области особую актуальность приобретает вопрос о способности подобных систем самостоятельно принимать моральные решения, при этом важно понять, чем обусловлены (детерминированы) эти решения, насколько эти решения будут приемлемы для человека и общества.
Список литературы
1. Аршинов В.И., Буданов В.Г. Парадигма сложностности и социогуманитарные проекции конвергентных технологий // Вопросы философии. 2016. № 1. C. 59-70.
2. Arshinov, V.I., Budanov, V.G. “Paradigma slozhnostnosti i sociogumanitarnye proekcii kon-vergentnyh tehnologij” [Paradigm of Complexity and Socio-humanitarian Projection of Conver-gent Technologies], Voprosy filosofii, 2016, No. 1, pp. 59-70. (In Russian). EDN: VSASIT
3. Делёз Ж. “Эмпиризм и субъективность: опыт о человеческой природе по Юму” // Кри-тическая философия Канта: учение о способностях. Бергсонизм. Спиноза / Пер. с фр. Я.И. Свирского. М.: ПЭР СЭ, 2001.
4. Deleuze, G. “Empirizm i sub”ektivnost’: opyt o chelovecheskoj prirode po Yumu“ [Empiri-sism and Subjectivity. An Essay on Hume’s Theory of Human Nature], in: G. Deleuze, Kriti-cheskaya filosofiya Kanta: uchenie o sposobnostyah. Bergsonizm. Spinoza [Kant’s Critical Philoso-phy: the Teaching of the Faculties. Bergsonism], transl. by Ya.I. Svirskii. Moscow: PER SE Publ., 2001. (In Russian).
5. Дробницкий О.Г. Моральная философия: Избр. труды / Сост. Р.Г. Апресян*. М.: Гарда-рики, 2002.
6. Drobnickii, O.G. Moral’naya filosofiya: Izbr. Trudy [Moral Philosophy: Selected Works], ed. by. R.G. Apresyan. Moscow: Gardariki Publ., 2002. (In Russian).
7. Лекторский В.А. Субъект // Новая философская энциклопедия / Под ред. В.С. Степина, А.А. Гусейнова, Г.Ю. Семигина, А.П. Огурцова. Т. 3. М.: Мысль, 2001. С. 659-660.
8. Lektorskii, V.A. “Sub’ekt” [Agent], Novaya filosofskaya ehntsiklopediya [New Philosophical Encyclopedia], eds. V.S. Stepin, A.A. Guseynov, G.Yu. Semigin, A.P. Ogurtzov, Vol. 3. Moscow: Mysl’ Publ., 2001, pp. 659-660.
9. Лепский В.Е. Вызовы будущего и кибернетика третьего порядка // Проектирование бу-дущего. Проблемы цифровой реальности: труды 2-й Межд. конф., 2019, Москва. М.: ИПМ им. М.В. Келдыша, 2019. С. 64-70.
10. Lepskiy, V.E. “Vyzovy buduschego i kibernetika tret’ego poryadka” [Challenges of the Fu-ture and Third-order Cybernetics], Proceedings of the Second International Conference “Futurity Designing. Digital Reality Problems”. Moscow: Keldysh Institute of Applied Mathematics, 2019, pp. 64-70. (In Russian).
11. Князева Е.Н. Энактивизм: концептуальный поворот в эпистемологии // Вопросы фило-софии. 2013. № 10. С. 91-104.
12. Knyazeva, E.N. “Enaktivizm: konceptual’nyj povorot v epistemologii” [Enactivism: A Con-ceptual Turn in Epistemology], Voprosy filosofii, 2013, No. 10, pp. 91-104. (In Russian). EDN: REIGYZ
13. Логинов Е.В., Гаврилов М.В., Мерцалов А.В., Юнусов А.Т. Этика и метафизика мораль-ной ответственности // Этич. мысль / Ethical Thought. 2021. Т. 21. № 2. С. 5-17.
14. Loginov, E.V., Gavrilov, M.V., Mercalov, A.V., Yunusov, A.T. “Etika i metafizika moral’noj otvetstvennosti” [Ethics and Metaphysics of Moral Responsibility], Eticheskaya mysl’ / Ethical Thought, 2021, Vol. 21, Nо. 2. pp. 5-17. (In Russian).
15. Микиртумов И.Б. Философская логика: трилемма номологии, “социологии” и “физио-логии” // Философские науки. 2017. № 1. С. 85-94.
16. Mikirtumov, I.B. “Filosofskaya logika: trilemma nomologii, ‘sociologii’ i ‘fiziologii’ [Philo-sophical Logic: the Trilemma of Nomology, “Sociology” and “Physiology”], Filosofskie nauki, 2017, No. 1, pp. 85-94. (In Russian). EDN: YJBUEB
17. Нарьян С.К., Быков А.В. Проблема моральной агентности акторов: перспективы социо-логического подхода в контексте теории “моральной диады” // Социологический журнал. 2022. Т. 28. № 1. С. 8-23.
18. Naryan, S.K., Bykov, A.V. “Problema moral’noj agentnosti aktorov: perspektivy sociolo-gicheskogo podhoda v kontekste teorii ‘moral’noj diady’” [The Problem of Moral Agency of Actors: Perspectives of Sociological Approach in the Context of ‘Moral Dyad’ Theory], Socio-logicheskij zhurnal, 2022, Vol. 28, No. 1, pp. 8-23. (In Russian).
19. Anderson, M., Anderson, S.L. “Machine Ethics: Creating an Ethical Intelligent Agent”, AI Magazine, 2007, No. 28 (4), pp. 15-26.
20. Allen, С., Smit, I., Wallach, W. “Artificial Morality: Top-down, Bottom-up, and Hybrid Ap-proaches”, Ethics and Information Technology, 2005, No. 7, pp. 149-155.
21. Bostrom, N. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford UP, 2016.
22. Boden, M. Mind as Machine: A History of Cognitive Science. Oxford: Oxford UP, 2006.
23. Brundage, M. “Limitations and Risks of Machine Ethics”, Journal of Experimental and The-oretical Artificial Intelligence, 2014, No. 26 (3), pp. 355-372.
24. Behdadi, D., Munthe, C. “A Normative Approach to Artificial Moral Agency”, Minds and Machines, 2020, No. 30, pp. 195-218.
25. Bjornsson, G., Shepherd, J. “Determinism and Attributions of Consciousness”, Philosophical Psychology, 2020, Vol. 33, No. 4, pp. 549-568.
26. Brachman, R.J. “Systems That Know What They’re Doing”, IEEE Intelligent Systems, 2002, No. 17 (6), pp. 67-71.
27. Chollet, F., On the Measure of Intelligence [https://arxiv.org/pdf/1911.01547.pdf, accessed on 05.02.2024].
28. Fleetwood, J., Vaught, W., Feldman, D., “MedEthEx Online: A Computer-Based Learning Program in Medical Ethics and Communication Skills”, Teaching and Learning in Medicine, 2000, pp. 96-104.
29. Formosa, M. Ryan. Making Moral Machines: Why we need Artificial Moral Agents [https://philarchive.org/rec/FORMMM, accessed on 05.01.2024].
30. Fossa, F. “Artificial Moral Agents: Moral Mentors or Sensible Tools?”, Ethics and Informa-tion Technology, 2018, Vol. 20, pp. 115-126.
31. Gray, K., Young, L., Waytz, A. “Mind Perception is the Essence of Morality”, Psychological Inquiry, 2012, Vol. 23. No. 2, pp. 101-124.
32. Inusah, H., Quansah, P.K. “Rawls’ Reflective Equilibrium as a Method of Justifying Moral Beliefs”, Axiomathes, 2022, No. 32 (Suppl 2), pp. 629-645.
33. Johansson, L. “Robots and Moral Agency”, Theses in Philosophy from the Royal Institute of Technology, Stockholm, 2011.
34. Krinkin, K., Shichkina, Y., Ignatyev, A. “Co-evolutionary Hybrid Intelligence is a Key Con-cept for the World Intellectualization”, Kybernetes, 2023, Vol. 52, No. 9, pp. 2907-2923.
35. Kuleshov, A., Ignatiev, A., Abramova, A., Marshalko, G. “Addressing AI Ethics Through Codification”, Proceedings of the International Conference Engineering Technologies and Com-puter Science (EnT). Moscow, 2020, pp. 24-30.
36. Martinho, A., Poulsen, A., Kroesen, M., Chorus, C. “Perspectives About Artificial Moral Agents”, AI and Ethics, 2021, No. 1, pp. 477-490.
37. Podschwadek, F. “Do Androids Dream of Normative Endorsement? On the Fallibility of Arti-ficial Moral Agents”, Artificial Intelligence and Law, 2017, No. 25 (3), pp. 325-339.
38. Searle, J. “The Construction of Social Reality”, in: J. Searle, Rationality in Action. New York: The Free Press, 1995.
39. Searle J. Internationality: An Essay in the Philosophy of Mind. Cambridge: Cambridge UP, 1988.
40. Taylor, A. Animals and Ethics: An Overview of the Philosophical Debate. New York: Broad-view Press, 2003.
41. Tolmeijer, S., Kneer, M., Sarasua, C., Christen, M., Bernstein, A. “Implementations in Ma-chine Ethics: A Survey”, ACM Computing Surveys, 2020, No. 53 (6), pp. 1-38.
Выпуск
Другие статьи выпуска
В статье представлена методика – «Индекс “этичности” систем искусственного интеллекта», задача разработки которой заключалась в оценке реальных и потенциальных рисков этического характера, возникающих на всех этапах жизненного цикла ИИ-систем. Сама система никакой «этичностью» не обладает, тогда как социально приемлемыми, с моральной точки зрения допустимыми и необходимыми, могут быть действия разработчиков и поставщиков данных в процессе ее проектирования и обучения, а также операторов и потребителей в ходе ее пилотирования и внедрения. Ряд вопросов, связанных, например, с конфиденциальностью персональных данных, отчасти регулируется актуальным законодательством, тогда как большая часть этических рисков лишь прогнозируется. Представленная методика разработана: для целей медицинского сообщества, нуждающегося в подтверждении моральной состоятельности и соответствия профессиональным стандартам внедрения новейших технологий в клиническую практику; в качестве инструмента, который может быть использован в деятельности этических комиссий по аналогии с биоэтическими комитетами при согласовании соответствующих медицинских исследований с участием ИИ; как дополнение к процедурам добровольной технической сертификации, а также в судебно-медицинской экспертизе. В «Индексе» отражены наиболее острые этические проблемы – доверия, распределенной ответственности, конфиденциальности данных, прозрачности и объяснимости ИИ-моделей, справедливости и недискриминации, обсуждаемые в современной этике в связи с рисками развития ИИ. Уникальность «Индекса» заключается в лежащем в его основе междисциплинарном подходе, включающем в себя методологию «дизайна ценностей» и «полевое» социологическое исследование, позволившее совместить теоретические гуманитарные подходы к пониманию содержания ключевых моральных понятий с их трактовкой в профессиональной медицинской этике. Это делает «Индекс» не только интересным с теоретической точки зрения как способ формализации этических категорий, но и полезным с практической точки зрения – как пример прикладного значения этики и использования ее инструментария для решения социально значимых задач.
Основной целью статьи является обоснование оптимальности концепции распределенной морали Лучано Флориди для описания модели отношения ответственности в сложных системах «человек – искусственный интеллект» (ИИ). Достаточно высокий уровень автономии в функционировании ИИ ставит под вопрос классический инструментализм в отношении этой технологии, так как она оказывается способной на принципиально неконтролируемые со стороны человека действия в процессе выполнения поставленной перед ней задачи. По этой же причине классическое определение моральной ответственности постепенно перестает соответствовать действительному положению дел в области разработки ИИ, что зачастую приводит к проблемам, тормозящим ее развитие. Поэтому в статье осуществляется концептуализация нового, соответствующего типу технологии способа описания отношений ответственности в сфере этики ИИ. Для достижения этой цели ИИ рассматривается как обладающий агентностью участник различных взаимодействий (на основе критериев агентности Флориди), в том числе и социальных, но при этом ему не приписывается подлинная интенциональность, мотивация, осознанность и другие свойства, являющиеся необходимыми для атрибутирования агентности в классической модели отношения ответственности. Кроме обращения к описанию критериев агентности Флориди, обоснование такого рассмотрения ИИ в статье осуществляется с опорой на концепт текучести Аннамари Мол и Марианы де Лаэт, который разрабатывается ими в том числе и для обозначения способности технологий обладать агентностью без наличия у них свойств, считающихся необходимыми для атрибутирования агентности в классической модели описания роли технологий в социальных процессах. Технология ИИ представляется как сложная гетерогенная социотехническая система, конструируемая как человеческими, так и нечеловеческими агентами. Риск ниве - лирования значимости ответственности в такой системе преодолевается на концептуальном уровне посредством адаптации подхода объект-ориентированной морали Флориди. Смена акцента с субъекта действия на объект воздействия наделяет моральной значимостью всю ту сумму морально нейтральных действий, которые совершаются агентами в рамках социотехнической системы. Поскольку она производит морально значимые эффекты и воздействия, то выступает и носителем отношения ответственности, которое, как показано в статье, распространяется на каждого агента системы в равной мере, интенсифицируя тем самым моральную ответственность в сфере ИИ.
Предметом данной статьи являются новые возможности и вызовы, к которым приводит широкое распространение цифровых агентов в медицине. Под «цифровыми агентами» понимаются все устройства с ИИ, нейронные сети, мобильные приложения, чат-боты, используемые для диагностики и мониторинга состояния пациента. Наряду с преимуществами их внедрения существует ряд рисков, провоцируемых утратой человеческого фактора и недостатком регулирования новых технологий. В статье рассматриваются «этические ловушки», без устранения которых невозможно эффективное внедрение цифровых агентов в здравоохранение. К ним относятся: предвзятость, галлюцинации и вредная информация, конфиденциальность и согласие субъекта данных, а также прозрачность и объяснимость. Отмечено, что появляется все большее делегирование ИИ принятия решений о диагнозе и лечении, ограничивающее автономию врачей в пользу предварительно заданных алгоритмов. Такой феномен «цифрового патернализма» влечет за собой утрату доверия к квалифицированным врачам. Кроме того, в статье анализируется проблема социального расслоения, вызванная как ограничением доступа к современным технологиям для определенных слоев населения, так и созданием барьеров для людей, предпочитающих традиционные подходы к оказанию медицинской помощи. Делается вывод о необходимости тщательного обсуждения и разработки правил и нормативов для внедрения цифровых агентов в медицину, с учетом максимального уважения прав пациентов, сохранения человеческих отношений «врач–пациент» и этических ценностей.
В статье рассматриваются методологические ограничения применения (современной) этики добродетели в сфере искусственного интеллекта. Первое ограничение заключается в теоретической неопределенности «этики добродетели», так как в аспекте многих вопросов прикладной этики она инструментально истолковывается многими исследователями только как подход, отсылающий к аристотелевскому принципу середины и позволяющий артикулировать ключевые добродетели для ИИ. Такой подход является в корне неверным, так как он выборочно подходит к содержанию этики добродетели, вычленяя из нее лишь те принципы, которые способствуют его апробации. Второе ограничение связано с тем, что в аристотелизме и нео-аристотелизме ИИ не может рассматриваться в качестве морального агента sensu stricto. В связи с этим ИИ представляет собой систему, которая может только имитировать поведение морального агента, являющегося носителем определенных добродетелей. Несмотря на первичный отрицательный диагноз, в нео-аристотелизме можно выделить два направления, которые могут предложить новый подход к этике искусственного интеллекта. Экземпляризм позволяет иначе взглянуть на роль социальных роботов в жизни людей: они могут рассматриваться в качестве моральных образцов и нарративов, которые могут способствовать моральному развитию своих владельцев и менять их моральный облик в лучшую/худшую сторону. Подход возможностей М. К. Нуссбаум также сфокусирован на влиянии ИИ на качество человеческой жизни: в данном контексте речь идет о том, какие изменения могут претерпевать базовые человеческие возможности и как будут обеспечены минимальная социальная справедливость и человеческое достоинство при применении технологий ИИ.
В статье проанализированы постановка и решение Адамом Смитом проблемы безосновательного стыда, т. е. стыда, который не связан с действительными нарушениями моральных принципов и возникает в связи с тем, что окружающие агента люди осуждают его или считают его положение постыдным. Постановка проблемы осуществляется Смитом в связи с обсуждением четырех природных мотивов: 1) любви к похвале, 2) любви к тому, чтобы быть достойным похвалы, 3) страха осуждения, 4) страха оказаться достойным осуждения. Анализируя их, Смит фиксирует примечательную асимметрию: незаслуженная похвала не доставляет мудрому и добродетельному человеку удовольствия, а незаслуженное осуждение тем не менее причиняет ему довольно интенсивное страдание. Оно «бросает тень позора и бесчестья на его характер», заставляет чувствовать себя «униженным» и т. д. В одних фрагментах «Теории нравственных чувств» Смит если не одобряет такие переживания, то, по крайней мере, рекомендует предпринимать все меры, предотвращающие незаслуженное осуждение. В других фрагментах он видит в том, что переживания и поведение морального агента зависят от незаслуженного осуждения, проявление очевидной моральной слабости («рабство у мира»). В первом случае речь идет в основном о незаслуженном осуждении на основе ошибочного приписывания моральному агенту поступков и мотивов, во втором – на основе применения к его поступкам и мотивам искаженных критериев моральной оценки. Важными примерами стыда, возникающего на основе искаженных критериев, являются стыд бедности и стыд «немодных добродетелей». Стыд бедности и соответствующую ему гордость богатством, несмотря на их укорененность в человеческой природе и полезность для общества, Смит, в отличие от Дэвида Юма, считает безосновательными. Стыд «немодных добродетелей» имеет такой статус по определению.
История аристотелевского понятия μεγαλόψυχος (Величавый) простирается на почти два с половиной тысячелетия и является историей утраты собственно аристотелевского понятия. Ральф Эмерсон принадлежит к тем мыслителям, во взглядах которых понятие великодушия является не случайным и значимым. В статье предлагается увидеть его в первую очередь в непосредственном соотнесении с образом Величавого у Аристотеля. Главным источником при обращении к Великодушному Эмерсона является его известное эссе “Self-reliance”. Оно пронизано стремлением освободить человека от конформизма, подражательства навязываемым социумом представлениям, нормам, оценкам, от самого взгляда на них и того, как он видится со стороны. Это освобождение позволяет человеку положиться на самого себя и возвыситься до сверх-духа, узреть таким образом истину, в первую очередь – о самом себе. Это стремление Эмерсона роднит его с аристотелевской попыткой последовательно помыслить человека как начало поступка и мира, в результате которой и рождается образ Величавого, это родство проявляется в перекличке многих тем и идей. Так, Эмерсон стремится освободить человека не только от социума, но и от его собственного прошлого и будущего, т. е. помыслить его в актуальном настоящем, вне времени, что перекликается с аристотелевским пониманием поступка как актуальной действительности, как целого и самодостаточного. Не соглашаясь с противопоставлением Аристотеля и Эмерсона на основе понимания ими роли внешних благ или сведения его к отдельным суждениям, автор видит ключевое отличие в следующем: Величавый задает своим решением-поступком мир людей, полис, он самодостаточен и единственен, тогда как Великодушный стремится опереться на себя путем отвержения социума, будучи в первую очередь познающим, а не поступающим, он не достигает самодостаточности и единственности.
В статье проводится критический разбор книги видного немецкого филолога-классика Альбрехта Диле «Золотое правило» (1962). Книга, выдающаяся для своего времени, до сих пор сохраняет свою ценность благодаря огромному материалу из древних литературных источников, по преимуществу античных, касающемуся принципа воздаяния и Золотого правила (ЗП), а также Заповеди любви. В своей совокупности этот материал, тщательно проанализированный Диле, позволяет по-новому взглянуть на некоторые стороны генезиса морали и роли в этом процессе эволюции принципа воздаяния и его отдельной трансформации в золотое правило. Заслуживают внимания указания Диле на роль софистов и их философии образования в формировании ЗП, а также его взгляд на исторически ранние образчики формулы ЗП. Оценка Диле ЗП в качестве своеобразного, утонченного выражения принципа воздаяния, его определяющей роли в формировании ценностного стандарта ЗП, привела Диле к выводу о слабой, вопреки традиционной интерпретации, сопряженности ЗП с Заповедью любви и, соответственно, не такой высокой его важности для христианской этики. На основе анализа взглядов и характера аргументации, представленных в книге, в статье делается вывод о том, что у Диле было недостаточно разработанное теоретическое представление о ЗП, в котором не учитывалось во всей полноте своеобразие его нормативного содержания и функциональных особенностей, а также его роль в формировании морального в собственном смысле слова воззрения на мир.
В статье рассматриваются различные теологические интерпретации евангельского сюжета, называемого «самоуничижением Христа», или «кенозисом». Автор считает, что эти интерпретации являются выражением основных типов морально-философского восприятия жизни. В статье выделяются три версии кенозиса: восхождение, проникновение и бессилие. Первая версия предполагает, что жизнь Христа представляла собой совершенствование, в процессе которого происходило преодоление условий земной жизни человека; вторая утверждает, что Христос не преодолевал условий земного существования, но демонстрировал, как в рамках этих условий возможно достижение Царства Божьего; третья исходит из того, что кенозис – это история, раскрывающая бессилие Бога перед лицом им же созданного мира. Эти три версии кенозиса соответствуют трем типам морально-философского отношения к жизни. Первое отношение можно определить как «футуристическое»: мир с необходимостью должен стать лучше того, каким он есть. Второе отношение определяется как «презентное»: мир к лучшему изменить нельзя, но индивидуум всегда может обрести в нем свободу и самодостаточность. Третье отношение определяется как «восполняющее»: история человечества не имеет какой-то восходящей направленности, но подвластна некоторым нашим волевым усилиям, которые могут быть как конструктивными, т. е. меняющими существующие нормы и ценности в соответствии с обстоятельствами, так и деструктивными, т. е. направленными на насилие и разрушение. Для современного секуляризованного мира наиболее актуальным является, конечно, последнее отношение и свойственная ему дихотомия.
Издательство
- Издательство
- Институт философии
- Регион
- Россия, Москва
- Почтовый адрес
- 109240, г. Москва, ул. Гончарная, д. 12, стр. 1.
- Юр. адрес
- 109240, г. Москва, ул. Гончарная, д. 12, стр. 1.
- ФИО
- Гусейнов Абдусалам Абдулкеримович (Директор)
- E-mail адрес
- iph@iphras.ru
- Контактный телефон
- +7 (495) 6979109
- Сайт
- https:/iphras.ru