В статье представлена методика – «Индекс “этичности” систем искусственного интеллекта», задача разработки которой заключалась в оценке реальных и потенциальных рисков этического характера, возникающих на всех этапах жизненного цикла ИИ-систем. Сама система никакой «этичностью» не обладает, тогда как социально приемлемыми, с моральной точки зрения допустимыми и необходимыми, могут быть действия разработчиков и поставщиков данных в процессе ее проектирования и обучения, а также операторов и потребителей в ходе ее пилотирования и внедрения. Ряд вопросов, связанных, например, с конфиденциальностью персональных данных, отчасти регулируется актуальным законодательством, тогда как большая часть этических рисков лишь прогнозируется. Представленная методика разработана: для целей медицинского сообщества, нуждающегося в подтверждении моральной состоятельности и соответствия профессиональным стандартам внедрения новейших технологий в клиническую практику; в качестве инструмента, который может быть использован в деятельности этических комиссий по аналогии с биоэтическими комитетами при согласовании соответствующих медицинских исследований с участием ИИ; как дополнение к процедурам добровольной технической сертификации, а также в судебно-медицинской экспертизе. В «Индексе» отражены наиболее острые этические проблемы – доверия, распределенной ответственности, конфиденциальности данных, прозрачности и объяснимости ИИ-моделей, справедливости и недискриминации, обсуждаемые в современной этике в связи с рисками развития ИИ. Уникальность «Индекса» заключается в лежащем в его основе междисциплинарном подходе, включающем в себя методологию «дизайна ценностей» и «полевое» социологическое исследование, позволившее совместить теоретические гуманитарные подходы к пониманию содержания ключевых моральных понятий с их трактовкой в профессиональной медицинской этике. Это делает «Индекс» не только интересным с теоретической точки зрения как способ формализации этических категорий, но и полезным с практической точки зрения – как пример прикладного значения этики и использования ее инструментария для решения социально значимых задач.
Идентификаторы и классификаторы
- SCI
- Философия
В последние несколько лет в мире с целью выработки принципов и стандартов оценки для проведения гуманитарной экспертизы на всем жизненном цикле технологии было разработано множество стратегий, начиная с Глобальной рекомендации ЮНЕСКО по этике в сфере ИИ, общего регламента защиты данных (GDPR), предложений ЕС по идентификации систем повышенного риска, и вплоть до различных национальных документов, регулирующих сферу искусственного интеллекта (ИИ), а также кодексов, уставов, хартий, обеспечивающих профессиональное регулирование ИИ в конкретных отраслях, например, документы Института инженеров электротехники и электроники (IEEE) и проч.
Список литературы
1. Алексеев А.Ю., Винник Д.В., Гарбук С.В., Лекторский В.А., Черногор Н.Н. (ред.) Мето-дика оценки доверия к “искусственному интеллекту”. М.: Президиум РАН, 2022.
2. Alekseev, A.Yu., Vinnik, D.V., Garbuk, S.V., Lektorskij, V.A., Chernogor, N.N. (eds.) Metodika ocenki doveriya k “iskusstvennomu intellektu” [A Methodology for Assessing Trust in “Artificial Intelligence”]. Moscow: Prezidium RAN Publ., 2022. (In Russian).
3. Брызгалина Е.В., Гумарова А.Н., Шкомова Е.М. Искусственный интеллект в медицине: рекомендации по проведению социально-гуманитарной экспертизы // Сибирский философ-ский журнал. 2023. Т. 21. № 1. С. 51-63.
4. Bryzgalina, E.V., Gumarova, A.N., Shkomova, E.M. “Iskusstvennyj intellekt v medicine: rekomendacii po provedeniyu social’no-gumanitarnoj ekspertizy” [Artificial Intelligence in Medi-cine: Recommendations for Social and Humanitarian Expertise], Sibirskij filosofskij zhurnal, 2023, Vol. 21, No. 1, pp. 51-63. (In Russian).
5. Всеобщая декларация о биоэтике и правах человека. Организация Объединенных На-ций. URL: https://www.un.org/ru/documents/decl_conv/declarations/bioethics_and_hr.shtml (да-та обращения: 28.02.2024).
6. Universal Declaration on Bioethics and Human Rights. United Nations [https://www.un.org/ru/documents/decl_conv/declarations/bioethics_and_hr.shtml, accessed on 28.02.2024]. (In Russian).
7. Кодекс этики в сфере искусственного интеллекта (принят 26.10.2021). Альянс в сфере ИИ. URL: https://a-ai.ru/ethics/index.htm (дата обращения: 28.02.2024).
8. Code of Ethics for Artificial Intelligence (26.10.2021), Alliance in AI [https://a-ai.ru/ethics/index.htm, accessed on 28.02.2024]. (In Russian).
9. ГОСТ Р 59276-2020. Системы искусственного интеллекта. Способы обеспечения дове-рия. Общие положения. М.: Стандартинформ, 2020.
10. GOST R 59276-2020 Sistemy iskusstvennogo intellekta. Sposoby obespecheniya doveriya. Obshchie polozheniya [National Standards of Russia 59276-2020. Artificial Intelligence Systems. Ways of Ensuring Trust. General Provisions]. Moscow: Standartinform Publ., 2020. (In Russian).
11. Гусев А.В., Шарова Д.Е. Этические проблемы развития технологий искусственного ин-теллекта в здравоохранении // Общественное здоровье. 2023. № 1. С. 42-50.
12. Gusev, A.V., Sharova, D.E. “Eticheskie problemy razvitiya tekhnologij iskusstvennogo in-tellekta v zdravoohranenii” [Ethical Issues in the Development of Artificial Intelligence Technolo-gies in Health Care], Obshchestvennoe zdorov’e, 2023, No. 1, pp. 42-50. (In Russian).
13. Квале С. Исследовательское интервью. М.: Смысл, 2003.
14. Kvale, S. Issledovatel’skoe interv’yu [Research Interview]. Moscow: Smysl Publ., 2003. (In Russian).
15. Практики анализа качественных данных в социальных науках: учеб. пособие / Oтв. ред. Е.В. Полухина. М.: Изд. дом ВШЭ, 2023. EDN: MGGNHP
16. Poluhina, E.V. (ed.) Praktiki analiza kachestvennyh dannyh v social’nyh naukah: ucheb. posobie [Practices for Analyzing Qualitative Data in the Social Sciences: A Training Manual]. Moscow: Izd. dom HSE Publ., 2023. (In Russian).
17. Этические принципы и использование искусственного интеллекта в здравоохранении: руководство ВОЗ. Резюме. Женева: Всемирная организация здравоохранения, 2021. ▼ Контекст
18. Eticheskie principy i ispol’zovanie iskusstvennogo intellekta v zdravoohranenii: rukovodstvo VOZ. Rezyume [Ethics and Governance of Artificial Intelligence for Health: WHO Guidance. Executive Summary]. Geneva: World Health Organisation Publ., 2021. (In Russian).
19. Aizenberg, E., Van Den Hoven, J. “Designing for Human Rights in AI”, Big Data & Society, 2020, No. 2, pp. 1-30.
20. Anderson, B., Sutherland, E. “Collective Action for Responsible AI in Health”, OECD Artifi-cial Intelligence papers, 2024, No. 10, pp. 3-41.
21. Asilomar AI Principles [https://futureoflife.org/2017/08/11/ai-principles/, accessed on 28.02.2024].
22. Atari, M., Haidt, J., Graham, J., Koleva, S., Stevens, S.T. “Dehghani M. Morality Beyond the WEIRD: How the Nomological Network of Morality Varies Across Cultures” (Preprint), PsyArXiv, 2022, pp. 1-79.
23. Baber, N. “International Conference on Harmonization of Technical Requirements for Regis-tration of Pharmaceuticals for Human Use (ICH)”, British Journal of Clinical Pharmacology, 1994, No. 37 (5), pp. 401-404.
24. Convention for the Protection of Human Rights and Dignity of the Human Being with regard to the Application of Biology and Medicine: Convention on Human Rights and Biomedicine, 1997. [https://rm.coe.int/168007cf98, accessed on 28.02.2024].
25. Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems [https://standards.ieee.org/wp-content/uploads/import/documents/other/ead_v2.pdf, accessed on 28.02.2024].
26. European Group on Ethics in Science and New Technologies. Statement on Artificial Intelli-gence, Robotics and ‘Autonomous’ Systems. Luxemburg: Publication Office of European Union, 2018.
27. Floridi, L., Cowls, J. “A Unified Framework of Five Principles for AI in Society”, Machine Learning and the City: Applications in Architecture and Urban Design, ed. by S. Carta. London: John Wiley and Sons Ltd., 2022, pp. 535-545.
28. Gibson, K. Ethics and Business: An Introduction, Cambridge: Cambridge UP, 2007.
29. Graham, J., Nosek, B.A., Haidt, J., Iyer, R., Koleva, S., Ditto P.H. “Mapping the Moral Do-main”, Journal of Personality and Social Psychology, 2011, Vol. 101, pp. 366-385.
30. Haidt, J., Joseph, C. “Intuitive Ethics: How Innately Prepared Intuitions Generate Culturally Variable Virtues”, Daedalus, 2004, No. 4, pp. 55-66.
31. Kazim, E., Koshiyama, A.S. “A High-Level Overview of AI Ethics”, Patterns, 2021, No. 9, pp. 1-12.
32. Mikhail, J. “Universal Moral Grammar: Theory, Evidence and the Future”, Trends in Cogni-tive Sciences, 2007, Vol. 11 (4), pp. 143-152.
33. Montreal Declaration for a Responsible Development of Artificial Intelligence [https://www.montrealdeclaration-responsibleai.com/the-declaration, accessed on 28.02.2024].
34. PAI’s Guidance for Safe Foundation Model Deployment, Partnership on AI (PAI). 2023. [https://partnershiponai.org/about/, accessed on 28.02.2024].
35. Schein, C., Gray, K. “The Theory of Dyadic Morality: Reinventing Moral Judgment by Re-defining Harm”, Personality and Social Psychology Review, 2018, Vol. 22 (1), pp. 32-70.
36. Select Committee on Artificial Intelligence. AI in the UK: Ready, Willing, and Able? London: House of Lords, 2018.
37. Smajdor, A., Herring, J., Wheeler, R. Oxford Handbook of Medical Ethics and Law. Oxford: Oxford UP, 2022.
38. Trials of War Criminals before the Nuremberg Military Tribunals under Control Council, Law. Washington, D.C.: U.S. Government Printing Office, 1949, No. 10, Vol. 2.
39. WMA International Code of Medical Ethics, 2022. [https://www.wma.net/policies-post/wma-international-code-of-medical-ethics/, accessed on 28.02.2024].
40. Wong, D.B. Moral Relativism and Pluralism. Cambridge: Cambridge UP, 2023.
41. World Medical Association Declaration of Geneva, 2006. [https://www.wma.net/policies-post/wma-declaration-of-geneva/, accessed on 28.02.2024].
42. “World Medical Association Declaration of Helsinki: Ethical Principles for Medical Research Involving Human Subjects”, JAMA, 2013, No. 20, pp. 2191-2194.
43. Zagzebski, L.T. “Exemplarist Virtue Theory”, Metaphilosophy, 2010, Vol. 41, No. 1-2, pp. 41-57.
Выпуск
Другие статьи выпуска
Основной целью статьи является обоснование оптимальности концепции распределенной морали Лучано Флориди для описания модели отношения ответственности в сложных системах «человек – искусственный интеллект» (ИИ). Достаточно высокий уровень автономии в функционировании ИИ ставит под вопрос классический инструментализм в отношении этой технологии, так как она оказывается способной на принципиально неконтролируемые со стороны человека действия в процессе выполнения поставленной перед ней задачи. По этой же причине классическое определение моральной ответственности постепенно перестает соответствовать действительному положению дел в области разработки ИИ, что зачастую приводит к проблемам, тормозящим ее развитие. Поэтому в статье осуществляется концептуализация нового, соответствующего типу технологии способа описания отношений ответственности в сфере этики ИИ. Для достижения этой цели ИИ рассматривается как обладающий агентностью участник различных взаимодействий (на основе критериев агентности Флориди), в том числе и социальных, но при этом ему не приписывается подлинная интенциональность, мотивация, осознанность и другие свойства, являющиеся необходимыми для атрибутирования агентности в классической модели отношения ответственности. Кроме обращения к описанию критериев агентности Флориди, обоснование такого рассмотрения ИИ в статье осуществляется с опорой на концепт текучести Аннамари Мол и Марианы де Лаэт, который разрабатывается ими в том числе и для обозначения способности технологий обладать агентностью без наличия у них свойств, считающихся необходимыми для атрибутирования агентности в классической модели описания роли технологий в социальных процессах. Технология ИИ представляется как сложная гетерогенная социотехническая система, конструируемая как человеческими, так и нечеловеческими агентами. Риск ниве - лирования значимости ответственности в такой системе преодолевается на концептуальном уровне посредством адаптации подхода объект-ориентированной морали Флориди. Смена акцента с субъекта действия на объект воздействия наделяет моральной значимостью всю ту сумму морально нейтральных действий, которые совершаются агентами в рамках социотехнической системы. Поскольку она производит морально значимые эффекты и воздействия, то выступает и носителем отношения ответственности, которое, как показано в статье, распространяется на каждого агента системы в равной мере, интенсифицируя тем самым моральную ответственность в сфере ИИ.
Предметом данной статьи являются новые возможности и вызовы, к которым приводит широкое распространение цифровых агентов в медицине. Под «цифровыми агентами» понимаются все устройства с ИИ, нейронные сети, мобильные приложения, чат-боты, используемые для диагностики и мониторинга состояния пациента. Наряду с преимуществами их внедрения существует ряд рисков, провоцируемых утратой человеческого фактора и недостатком регулирования новых технологий. В статье рассматриваются «этические ловушки», без устранения которых невозможно эффективное внедрение цифровых агентов в здравоохранение. К ним относятся: предвзятость, галлюцинации и вредная информация, конфиденциальность и согласие субъекта данных, а также прозрачность и объяснимость. Отмечено, что появляется все большее делегирование ИИ принятия решений о диагнозе и лечении, ограничивающее автономию врачей в пользу предварительно заданных алгоритмов. Такой феномен «цифрового патернализма» влечет за собой утрату доверия к квалифицированным врачам. Кроме того, в статье анализируется проблема социального расслоения, вызванная как ограничением доступа к современным технологиям для определенных слоев населения, так и созданием барьеров для людей, предпочитающих традиционные подходы к оказанию медицинской помощи. Делается вывод о необходимости тщательного обсуждения и разработки правил и нормативов для внедрения цифровых агентов в медицину, с учетом максимального уважения прав пациентов, сохранения человеческих отношений «врач–пациент» и этических ценностей.
В статье рассматриваются методологические ограничения применения (современной) этики добродетели в сфере искусственного интеллекта. Первое ограничение заключается в теоретической неопределенности «этики добродетели», так как в аспекте многих вопросов прикладной этики она инструментально истолковывается многими исследователями только как подход, отсылающий к аристотелевскому принципу середины и позволяющий артикулировать ключевые добродетели для ИИ. Такой подход является в корне неверным, так как он выборочно подходит к содержанию этики добродетели, вычленяя из нее лишь те принципы, которые способствуют его апробации. Второе ограничение связано с тем, что в аристотелизме и нео-аристотелизме ИИ не может рассматриваться в качестве морального агента sensu stricto. В связи с этим ИИ представляет собой систему, которая может только имитировать поведение морального агента, являющегося носителем определенных добродетелей. Несмотря на первичный отрицательный диагноз, в нео-аристотелизме можно выделить два направления, которые могут предложить новый подход к этике искусственного интеллекта. Экземпляризм позволяет иначе взглянуть на роль социальных роботов в жизни людей: они могут рассматриваться в качестве моральных образцов и нарративов, которые могут способствовать моральному развитию своих владельцев и менять их моральный облик в лучшую/худшую сторону. Подход возможностей М. К. Нуссбаум также сфокусирован на влиянии ИИ на качество человеческой жизни: в данном контексте речь идет о том, какие изменения могут претерпевать базовые человеческие возможности и как будут обеспечены минимальная социальная справедливость и человеческое достоинство при применении технологий ИИ.
В статье рассмотрены объективные предпосылки и основания для создания искусственного морального агента1 (ИМА), предложены аргументы как в пользу развития подобных проектов, так и демонстрирующие ограниченные возможности систем искусственного интеллекта (ИИ) в обладании субъектностью, необходимой для принятия моральных решений. Представлены подходы к понятию «искусственный моральный агент», рассмотрены некоторые концепции т. н. «машинной морали»2, обозначены изначальные условия/критерии, предъявляемые к ИМА. Проблема ИМА прослеживается во взаимосвязи с теориями в области аналитической этики и философии техники. На основании такого анализа предлагаются направления исследовательской и научноэкспериментальной работы по созданию ИМА. Обосновывается тезис о несостоятельности технической реализации универсального, человекоподобного ИМА со способностью решать сложные, разноплановые моральные дилеммы и задачи, действовать в широком и разнообразном поле моральных ситуаций. В связи с этим предлагается использовать новые понятия – вычислительный моральный квазиагент – МКА (computational moral quasi-agent), а когда решения принимаются на основе человеко-машинного взаимодействия – конвергентный, или гибридный моральный агент – ГМА (hybrid moral agent). В условиях недостаточной разработанности теоретической базы и наличия рисков внедрения ИМА предлагается сбалансированное, поэтапное развитие проектов на основе предметно-ориентированного, контекстуального подхода. Такой подход предполагает ответственное внедрение МКА применительно к отдельным классам систем (моделям), с конкретной прикладной задачей, в определенной физической или виртуальной среде. Целесообразность проектирования МКА или ГМА в каждом конкретном проекте должна быть оправдана, аргументирована и доказана.
В статье проанализированы постановка и решение Адамом Смитом проблемы безосновательного стыда, т. е. стыда, который не связан с действительными нарушениями моральных принципов и возникает в связи с тем, что окружающие агента люди осуждают его или считают его положение постыдным. Постановка проблемы осуществляется Смитом в связи с обсуждением четырех природных мотивов: 1) любви к похвале, 2) любви к тому, чтобы быть достойным похвалы, 3) страха осуждения, 4) страха оказаться достойным осуждения. Анализируя их, Смит фиксирует примечательную асимметрию: незаслуженная похвала не доставляет мудрому и добродетельному человеку удовольствия, а незаслуженное осуждение тем не менее причиняет ему довольно интенсивное страдание. Оно «бросает тень позора и бесчестья на его характер», заставляет чувствовать себя «униженным» и т. д. В одних фрагментах «Теории нравственных чувств» Смит если не одобряет такие переживания, то, по крайней мере, рекомендует предпринимать все меры, предотвращающие незаслуженное осуждение. В других фрагментах он видит в том, что переживания и поведение морального агента зависят от незаслуженного осуждения, проявление очевидной моральной слабости («рабство у мира»). В первом случае речь идет в основном о незаслуженном осуждении на основе ошибочного приписывания моральному агенту поступков и мотивов, во втором – на основе применения к его поступкам и мотивам искаженных критериев моральной оценки. Важными примерами стыда, возникающего на основе искаженных критериев, являются стыд бедности и стыд «немодных добродетелей». Стыд бедности и соответствующую ему гордость богатством, несмотря на их укорененность в человеческой природе и полезность для общества, Смит, в отличие от Дэвида Юма, считает безосновательными. Стыд «немодных добродетелей» имеет такой статус по определению.
История аристотелевского понятия μεγαλόψυχος (Величавый) простирается на почти два с половиной тысячелетия и является историей утраты собственно аристотелевского понятия. Ральф Эмерсон принадлежит к тем мыслителям, во взглядах которых понятие великодушия является не случайным и значимым. В статье предлагается увидеть его в первую очередь в непосредственном соотнесении с образом Величавого у Аристотеля. Главным источником при обращении к Великодушному Эмерсона является его известное эссе “Self-reliance”. Оно пронизано стремлением освободить человека от конформизма, подражательства навязываемым социумом представлениям, нормам, оценкам, от самого взгляда на них и того, как он видится со стороны. Это освобождение позволяет человеку положиться на самого себя и возвыситься до сверх-духа, узреть таким образом истину, в первую очередь – о самом себе. Это стремление Эмерсона роднит его с аристотелевской попыткой последовательно помыслить человека как начало поступка и мира, в результате которой и рождается образ Величавого, это родство проявляется в перекличке многих тем и идей. Так, Эмерсон стремится освободить человека не только от социума, но и от его собственного прошлого и будущего, т. е. помыслить его в актуальном настоящем, вне времени, что перекликается с аристотелевским пониманием поступка как актуальной действительности, как целого и самодостаточного. Не соглашаясь с противопоставлением Аристотеля и Эмерсона на основе понимания ими роли внешних благ или сведения его к отдельным суждениям, автор видит ключевое отличие в следующем: Величавый задает своим решением-поступком мир людей, полис, он самодостаточен и единственен, тогда как Великодушный стремится опереться на себя путем отвержения социума, будучи в первую очередь познающим, а не поступающим, он не достигает самодостаточности и единственности.
В статье проводится критический разбор книги видного немецкого филолога-классика Альбрехта Диле «Золотое правило» (1962). Книга, выдающаяся для своего времени, до сих пор сохраняет свою ценность благодаря огромному материалу из древних литературных источников, по преимуществу античных, касающемуся принципа воздаяния и Золотого правила (ЗП), а также Заповеди любви. В своей совокупности этот материал, тщательно проанализированный Диле, позволяет по-новому взглянуть на некоторые стороны генезиса морали и роли в этом процессе эволюции принципа воздаяния и его отдельной трансформации в золотое правило. Заслуживают внимания указания Диле на роль софистов и их философии образования в формировании ЗП, а также его взгляд на исторически ранние образчики формулы ЗП. Оценка Диле ЗП в качестве своеобразного, утонченного выражения принципа воздаяния, его определяющей роли в формировании ценностного стандарта ЗП, привела Диле к выводу о слабой, вопреки традиционной интерпретации, сопряженности ЗП с Заповедью любви и, соответственно, не такой высокой его важности для христианской этики. На основе анализа взглядов и характера аргументации, представленных в книге, в статье делается вывод о том, что у Диле было недостаточно разработанное теоретическое представление о ЗП, в котором не учитывалось во всей полноте своеобразие его нормативного содержания и функциональных особенностей, а также его роль в формировании морального в собственном смысле слова воззрения на мир.
В статье рассматриваются различные теологические интерпретации евангельского сюжета, называемого «самоуничижением Христа», или «кенозисом». Автор считает, что эти интерпретации являются выражением основных типов морально-философского восприятия жизни. В статье выделяются три версии кенозиса: восхождение, проникновение и бессилие. Первая версия предполагает, что жизнь Христа представляла собой совершенствование, в процессе которого происходило преодоление условий земной жизни человека; вторая утверждает, что Христос не преодолевал условий земного существования, но демонстрировал, как в рамках этих условий возможно достижение Царства Божьего; третья исходит из того, что кенозис – это история, раскрывающая бессилие Бога перед лицом им же созданного мира. Эти три версии кенозиса соответствуют трем типам морально-философского отношения к жизни. Первое отношение можно определить как «футуристическое»: мир с необходимостью должен стать лучше того, каким он есть. Второе отношение определяется как «презентное»: мир к лучшему изменить нельзя, но индивидуум всегда может обрести в нем свободу и самодостаточность. Третье отношение определяется как «восполняющее»: история человечества не имеет какой-то восходящей направленности, но подвластна некоторым нашим волевым усилиям, которые могут быть как конструктивными, т. е. меняющими существующие нормы и ценности в соответствии с обстоятельствами, так и деструктивными, т. е. направленными на насилие и разрушение. Для современного секуляризованного мира наиболее актуальным является, конечно, последнее отношение и свойственная ему дихотомия.
Издательство
- Издательство
- Институт философии
- Регион
- Россия, Москва
- Почтовый адрес
- 109240, г. Москва, ул. Гончарная, д. 12, стр. 1.
- Юр. адрес
- 109240, г. Москва, ул. Гончарная, д. 12, стр. 1.
- ФИО
- Гусейнов Абдусалам Абдулкеримович (Директор)
- E-mail адрес
- iph@iphras.ru
- Контактный телефон
- +7 (495) 6979109
- Сайт
- https:/iphras.ru