Предметом данной статьи являются новые возможности и вызовы, к которым приводит широкое распространение цифровых агентов в медицине. Под «цифровыми агентами» понимаются все устройства с ИИ, нейронные сети, мобильные приложения, чат-боты, используемые для диагностики и мониторинга состояния пациента. Наряду с преимуществами их внедрения существует ряд рисков, провоцируемых утратой человеческого фактора и недостатком регулирования новых технологий. В статье рассматриваются «этические ловушки», без устранения которых невозможно эффективное внедрение цифровых агентов в здравоохранение. К ним относятся: предвзятость, галлюцинации и вредная информация, конфиденциальность и согласие субъекта данных, а также прозрачность и объяснимость. Отмечено, что появляется все большее делегирование ИИ принятия решений о диагнозе и лечении, ограничивающее автономию врачей в пользу предварительно заданных алгоритмов. Такой феномен «цифрового патернализма» влечет за собой утрату доверия к квалифицированным врачам. Кроме того, в статье анализируется проблема социального расслоения, вызванная как ограничением доступа к современным технологиям для определенных слоев населения, так и созданием барьеров для людей, предпочитающих традиционные подходы к оказанию медицинской помощи. Делается вывод о необходимости тщательного обсуждения и разработки правил и нормативов для внедрения цифровых агентов в медицину, с учетом максимального уважения прав пациентов, сохранения человеческих отношений «врач–пациент» и этических ценностей.
Идентификаторы и классификаторы
- SCI
- Философия
Современная медицина находится на передовом рубеже технологических инноваций, внедрение которых способствует переосмыслению традиционных методов диагностики, лечения и ухода за пациентами. В этом контексте ключевую роль начинают играть цифровые агенты, представляющие собой интеграцию искусственного интеллекта (ИИ), автоматизированных систем и компьютерных технологий. Цифровые агенты широко востребованы в медицинской отрасли, где помогают накапливать и сравнивать данные, заполнять и вести медицинские карты, оперативно получать клиническую информацию, давать лечебные рекомендации и решать множество других прикладных задач.
Список литературы
1. Введенская Е.В. Трансформация взаимоотношений врача и пациента: от биоэтики к ро-боэтике // Человек. 2023. T. 34. № 6. C. 65-83.
2. Vvedenskaya, E.V. “Transformaciya vzaimootnoshenij vracha i pacienta: ot bioetiki k robo-etike” [Transformation of the Physician-patient Relationship: from Bioethics to Roboethics], Che-lovek, 2023, Vol. 34, No. 6, pp. 65-83. (In Russian).
3. Ларионов И.Ю., Перова Н.В. “Mашина бога” Дж. Cавулеску как моральный агент и про-блема ответственности // Человек. 2023. T. 34. № 3. C. 24-40.
4. Larionov, I., Perova N. “‘Mashina boga’ Dzh. Cavulesku kak moral’nyj agent i problema otvetstvennosti” [J. Savulescu’s “The God Machine” as a Moral Agent and the Problem of Re-sponsibility], Chelovek, 2023, Vol. 34, No. 3, pp. 24-40. (In Russian). EDN: NZKUKQ
5. Паскуале Ф. Новые законы робототехники: апология человеческих знаний в эпоху искусственного интеллекта / Пер. с англ. А. Королева. М: Издат. дом “Дело” РАНХиГС, 2022.
6. Paskuale, F. Novye zakony robototekhniki: apologiya chelovecheskih znanij v epohu iskus-stvennogo intellekta [New Laws of Robotics: an Apology for Human Knowledge in the Era of Ar-tificial Intelligence], transl. by A. Korolev. Moscow: Izdatel’skij dom “Delo” RANHiGS Publ., 2022. (In Russian).
7. Разин А.В. Этика искусственного интеллекта // Философия и общество. 2019. № 1 (90). URL: https://cyberleninka.ru/article/n/etika-iskusstvennogo-intellekta (дата обраще-ния: 17.03.2024).
8. Razin, A.V. “Etika iskusstvennogo intellekta” [Ethics of Artificial Intelligence], Filosofiya i obshchestvo, 2019, No. 1 (90) [https://cyberleninka.ru/article/n/etika-iskusstvennogo-intellekta, accessed on 17.03.2024]. (In Russian).
9. Сачмен Л. Реконфигурации отношений человек - машина: планы и ситуативные дей-ствия / Пер. с англ. А.С. Максимовой. М.: Элементарные формы, 2019.
10. Sachmen, L. Rekonfiguracii otnoshenij chelovek - mashina: plany i situativnye dejstviya [Hu-man - Machine Reconfigurations: Plans and Situated Actions], transl. by A.S. Maksimova. Mos-cow: Elementarnye formy Publ., 2019. (In Russian).
11. Atique, S., Bautista, J.R. et al. “A Nursing Informatics Response to COVID-19: Perspectives From Five Regions of the World”, Journal of Advanced Nursing, 2020, No. 76 (10), pp. 2462-2468.
12. Banerjee, A., Jadhav, S.L., Bhawalkar, J.S. “Probability, Clinical Decision Making and Hy-pothesis Testing”, Industrial Psychiatry Journal, 2009, No. 18 (1), pp. 64-69.
13. Committee on Patient Safety and Health Information Technology Board on Health Care Ser-vices, Health IT and Patient Safety: Building Safer Systems for Better Care. Washington, DC: The National Academies Press, 2012.
14. Gichoya, J.W., Banerjee, I., Bhimireddy, A.R. “AI Recognition of Patient Race in Medical Imaging: a Modelling Study”, The Lancet Digital Health, 2022, Vol. 4 [, accessed on 22.01.2024]. DOI: 10.1016/S2589-7500(22)00063-2
15. Joshu, E. Toddler Whose Symptoms Puzzled 17 Doctors for Three YEARS is Finally Diag-nosed With Rare Condition… by ChatGPT, The Daily Mail, 2023, Sept. 12 [https://www.dailymail.co.uk/health/article-12509111/ChatGPT-diagnosis-rare-condition.html, accessed on 22.01.2024].
16. McDermott, T., DeLaurentis, D. et al. “AI4SE and SE4AI: A Research Roadmap”, INSIGHT, 2020, No. 23 (1), pp. 8-14.
17. McDougall, RJ. “Computer Knows Best? The Need for Value-flexibility in Medical AI”, Journal of Medical Ethics, 2018, No. 45 (3), p. 156.
18. Moja, L., Kwag, K.H. et al. “Effectiveness of Computerized Decision Support Systems Linked to Electronic Health Records: A Systematic Review and Meta-Analysis”, American Jour-nal of Public Health, 2014, pp. 12-22.
19. Montgomery, K. How Doctors Think: Clinical Judgment and the Practice of Medicine. Ox-ford: Oxford UP, 2006.
20. Obermeyer, Z. et al. “Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations”, Science, 2019, No. 366, pp. 447-453.
21. O’Sullivan, I. Why AI Therapy Chatbots Are the Ultimate Ethical Dilemma [https://tech.co/news/ai-therapy-chatbots-ethical-risks, accessed on 22.01.2024].
22. Owens, O.L, Felder, T. et al. “Evaluation of a Computer-based Decision Aid for Promoting Informed Prostate Cancer Screening Decisions Among African American Men: iDecide”, Ameri-can Journal of Health Promotion, 2019, No. 33 (2), pp. 267-278.
23. Parthemore, J., Whitby, B. “What Makes any Agent a Moral Agent? Reflections on Ma-chine Consciousness and Moral Agency”, International Journal of Machine Consciousness, 2013, No. 05 (02), pp. 1-21.
24. Pawar, U., O’Shea, D., Rea, S. O’Reilly, R. “Explainable AI in Healthcare”, Proceedings of the 2020 International Conference on Cyber Situational Awareness, Data Analytics and Assess-ment (CyberSA). Dublin, Ireland, 15-19 June 2020. Piscataway, NJ: IEEE, 2020, pp. 1-12.
25. Picchi, А. “Eating Disorder Helpline Shuts Down AI Chatbot that Gave Bad Advice”, CBS Interactive Inc. 2023, June 1, [https://www.cbsnews.com/news/eating-disorder-helpline-chatbot-disabled/, accessed on 22.01.2024].
26. Powell, J. “Trust Me, I’m a Chatbot: How Artificial Intelligence in Health Care Fails the Turing Test”, Journal of Medical Internet Research, 2019, No. 21 (10): e16222. [https://pubmed.ncbi.nlm.nih.gov/31661083/, accessed on 22.01.2024].
27. Pynnönen, T., Rantala, K., Räsänen, R. Kokemuksia Omaolo-palvelusta (Experiences with the Omaolo Service). Bachelor’s thesis. Tampere: Tampere University of Applied Sciences, 2020.
28. Riecken, D. “A Conversation With Marvin Minsky about Agents”, Communications of the ACM, 1994, Vol. 37, No. 7, pp. 23-29.
29. Sand, M., Durán, J.M., Jongsma, K.R. “Responsibility Beyond Design: Physicians’ Require-ments for Ethical Medical AI, Bioethics, 2022, No. 36, pp. 162-169.
30. THL - Finnish institute for health and welfare. 2020. Omaolo - Instructions for Use [https://www.omaolo.fi/, accessed on 22.01.2024].
31. Vaidyam, A.N. et al. “Chatbots and Conversational Agents in Mental Health: A Review of the Psychiatric Landscape”, Can J Psychiatry, 2019, No. 64 (7), pp. 456-464. EDN: EDZZMD
32. Žaliauskaitė, M. “Role of Ruler or Intruder? Patient’s Right to Autonomy in the Age of Inno-vation and Technologies”, AI & Society: Knowledge, Culture and Communication, 2021, Vol. 36, pp. 573-583.
Выпуск
Другие статьи выпуска
В статье представлена методика – «Индекс “этичности” систем искусственного интеллекта», задача разработки которой заключалась в оценке реальных и потенциальных рисков этического характера, возникающих на всех этапах жизненного цикла ИИ-систем. Сама система никакой «этичностью» не обладает, тогда как социально приемлемыми, с моральной точки зрения допустимыми и необходимыми, могут быть действия разработчиков и поставщиков данных в процессе ее проектирования и обучения, а также операторов и потребителей в ходе ее пилотирования и внедрения. Ряд вопросов, связанных, например, с конфиденциальностью персональных данных, отчасти регулируется актуальным законодательством, тогда как большая часть этических рисков лишь прогнозируется. Представленная методика разработана: для целей медицинского сообщества, нуждающегося в подтверждении моральной состоятельности и соответствия профессиональным стандартам внедрения новейших технологий в клиническую практику; в качестве инструмента, который может быть использован в деятельности этических комиссий по аналогии с биоэтическими комитетами при согласовании соответствующих медицинских исследований с участием ИИ; как дополнение к процедурам добровольной технической сертификации, а также в судебно-медицинской экспертизе. В «Индексе» отражены наиболее острые этические проблемы – доверия, распределенной ответственности, конфиденциальности данных, прозрачности и объяснимости ИИ-моделей, справедливости и недискриминации, обсуждаемые в современной этике в связи с рисками развития ИИ. Уникальность «Индекса» заключается в лежащем в его основе междисциплинарном подходе, включающем в себя методологию «дизайна ценностей» и «полевое» социологическое исследование, позволившее совместить теоретические гуманитарные подходы к пониманию содержания ключевых моральных понятий с их трактовкой в профессиональной медицинской этике. Это делает «Индекс» не только интересным с теоретической точки зрения как способ формализации этических категорий, но и полезным с практической точки зрения – как пример прикладного значения этики и использования ее инструментария для решения социально значимых задач.
Основной целью статьи является обоснование оптимальности концепции распределенной морали Лучано Флориди для описания модели отношения ответственности в сложных системах «человек – искусственный интеллект» (ИИ). Достаточно высокий уровень автономии в функционировании ИИ ставит под вопрос классический инструментализм в отношении этой технологии, так как она оказывается способной на принципиально неконтролируемые со стороны человека действия в процессе выполнения поставленной перед ней задачи. По этой же причине классическое определение моральной ответственности постепенно перестает соответствовать действительному положению дел в области разработки ИИ, что зачастую приводит к проблемам, тормозящим ее развитие. Поэтому в статье осуществляется концептуализация нового, соответствующего типу технологии способа описания отношений ответственности в сфере этики ИИ. Для достижения этой цели ИИ рассматривается как обладающий агентностью участник различных взаимодействий (на основе критериев агентности Флориди), в том числе и социальных, но при этом ему не приписывается подлинная интенциональность, мотивация, осознанность и другие свойства, являющиеся необходимыми для атрибутирования агентности в классической модели отношения ответственности. Кроме обращения к описанию критериев агентности Флориди, обоснование такого рассмотрения ИИ в статье осуществляется с опорой на концепт текучести Аннамари Мол и Марианы де Лаэт, который разрабатывается ими в том числе и для обозначения способности технологий обладать агентностью без наличия у них свойств, считающихся необходимыми для атрибутирования агентности в классической модели описания роли технологий в социальных процессах. Технология ИИ представляется как сложная гетерогенная социотехническая система, конструируемая как человеческими, так и нечеловеческими агентами. Риск ниве - лирования значимости ответственности в такой системе преодолевается на концептуальном уровне посредством адаптации подхода объект-ориентированной морали Флориди. Смена акцента с субъекта действия на объект воздействия наделяет моральной значимостью всю ту сумму морально нейтральных действий, которые совершаются агентами в рамках социотехнической системы. Поскольку она производит морально значимые эффекты и воздействия, то выступает и носителем отношения ответственности, которое, как показано в статье, распространяется на каждого агента системы в равной мере, интенсифицируя тем самым моральную ответственность в сфере ИИ.
В статье рассматриваются методологические ограничения применения (современной) этики добродетели в сфере искусственного интеллекта. Первое ограничение заключается в теоретической неопределенности «этики добродетели», так как в аспекте многих вопросов прикладной этики она инструментально истолковывается многими исследователями только как подход, отсылающий к аристотелевскому принципу середины и позволяющий артикулировать ключевые добродетели для ИИ. Такой подход является в корне неверным, так как он выборочно подходит к содержанию этики добродетели, вычленяя из нее лишь те принципы, которые способствуют его апробации. Второе ограничение связано с тем, что в аристотелизме и нео-аристотелизме ИИ не может рассматриваться в качестве морального агента sensu stricto. В связи с этим ИИ представляет собой систему, которая может только имитировать поведение морального агента, являющегося носителем определенных добродетелей. Несмотря на первичный отрицательный диагноз, в нео-аристотелизме можно выделить два направления, которые могут предложить новый подход к этике искусственного интеллекта. Экземпляризм позволяет иначе взглянуть на роль социальных роботов в жизни людей: они могут рассматриваться в качестве моральных образцов и нарративов, которые могут способствовать моральному развитию своих владельцев и менять их моральный облик в лучшую/худшую сторону. Подход возможностей М. К. Нуссбаум также сфокусирован на влиянии ИИ на качество человеческой жизни: в данном контексте речь идет о том, какие изменения могут претерпевать базовые человеческие возможности и как будут обеспечены минимальная социальная справедливость и человеческое достоинство при применении технологий ИИ.
В статье рассмотрены объективные предпосылки и основания для создания искусственного морального агента1 (ИМА), предложены аргументы как в пользу развития подобных проектов, так и демонстрирующие ограниченные возможности систем искусственного интеллекта (ИИ) в обладании субъектностью, необходимой для принятия моральных решений. Представлены подходы к понятию «искусственный моральный агент», рассмотрены некоторые концепции т. н. «машинной морали»2, обозначены изначальные условия/критерии, предъявляемые к ИМА. Проблема ИМА прослеживается во взаимосвязи с теориями в области аналитической этики и философии техники. На основании такого анализа предлагаются направления исследовательской и научноэкспериментальной работы по созданию ИМА. Обосновывается тезис о несостоятельности технической реализации универсального, человекоподобного ИМА со способностью решать сложные, разноплановые моральные дилеммы и задачи, действовать в широком и разнообразном поле моральных ситуаций. В связи с этим предлагается использовать новые понятия – вычислительный моральный квазиагент – МКА (computational moral quasi-agent), а когда решения принимаются на основе человеко-машинного взаимодействия – конвергентный, или гибридный моральный агент – ГМА (hybrid moral agent). В условиях недостаточной разработанности теоретической базы и наличия рисков внедрения ИМА предлагается сбалансированное, поэтапное развитие проектов на основе предметно-ориентированного, контекстуального подхода. Такой подход предполагает ответственное внедрение МКА применительно к отдельным классам систем (моделям), с конкретной прикладной задачей, в определенной физической или виртуальной среде. Целесообразность проектирования МКА или ГМА в каждом конкретном проекте должна быть оправдана, аргументирована и доказана.
В статье проанализированы постановка и решение Адамом Смитом проблемы безосновательного стыда, т. е. стыда, который не связан с действительными нарушениями моральных принципов и возникает в связи с тем, что окружающие агента люди осуждают его или считают его положение постыдным. Постановка проблемы осуществляется Смитом в связи с обсуждением четырех природных мотивов: 1) любви к похвале, 2) любви к тому, чтобы быть достойным похвалы, 3) страха осуждения, 4) страха оказаться достойным осуждения. Анализируя их, Смит фиксирует примечательную асимметрию: незаслуженная похвала не доставляет мудрому и добродетельному человеку удовольствия, а незаслуженное осуждение тем не менее причиняет ему довольно интенсивное страдание. Оно «бросает тень позора и бесчестья на его характер», заставляет чувствовать себя «униженным» и т. д. В одних фрагментах «Теории нравственных чувств» Смит если не одобряет такие переживания, то, по крайней мере, рекомендует предпринимать все меры, предотвращающие незаслуженное осуждение. В других фрагментах он видит в том, что переживания и поведение морального агента зависят от незаслуженного осуждения, проявление очевидной моральной слабости («рабство у мира»). В первом случае речь идет в основном о незаслуженном осуждении на основе ошибочного приписывания моральному агенту поступков и мотивов, во втором – на основе применения к его поступкам и мотивам искаженных критериев моральной оценки. Важными примерами стыда, возникающего на основе искаженных критериев, являются стыд бедности и стыд «немодных добродетелей». Стыд бедности и соответствующую ему гордость богатством, несмотря на их укорененность в человеческой природе и полезность для общества, Смит, в отличие от Дэвида Юма, считает безосновательными. Стыд «немодных добродетелей» имеет такой статус по определению.
История аристотелевского понятия μεγαλόψυχος (Величавый) простирается на почти два с половиной тысячелетия и является историей утраты собственно аристотелевского понятия. Ральф Эмерсон принадлежит к тем мыслителям, во взглядах которых понятие великодушия является не случайным и значимым. В статье предлагается увидеть его в первую очередь в непосредственном соотнесении с образом Величавого у Аристотеля. Главным источником при обращении к Великодушному Эмерсона является его известное эссе “Self-reliance”. Оно пронизано стремлением освободить человека от конформизма, подражательства навязываемым социумом представлениям, нормам, оценкам, от самого взгляда на них и того, как он видится со стороны. Это освобождение позволяет человеку положиться на самого себя и возвыситься до сверх-духа, узреть таким образом истину, в первую очередь – о самом себе. Это стремление Эмерсона роднит его с аристотелевской попыткой последовательно помыслить человека как начало поступка и мира, в результате которой и рождается образ Величавого, это родство проявляется в перекличке многих тем и идей. Так, Эмерсон стремится освободить человека не только от социума, но и от его собственного прошлого и будущего, т. е. помыслить его в актуальном настоящем, вне времени, что перекликается с аристотелевским пониманием поступка как актуальной действительности, как целого и самодостаточного. Не соглашаясь с противопоставлением Аристотеля и Эмерсона на основе понимания ими роли внешних благ или сведения его к отдельным суждениям, автор видит ключевое отличие в следующем: Величавый задает своим решением-поступком мир людей, полис, он самодостаточен и единственен, тогда как Великодушный стремится опереться на себя путем отвержения социума, будучи в первую очередь познающим, а не поступающим, он не достигает самодостаточности и единственности.
В статье проводится критический разбор книги видного немецкого филолога-классика Альбрехта Диле «Золотое правило» (1962). Книга, выдающаяся для своего времени, до сих пор сохраняет свою ценность благодаря огромному материалу из древних литературных источников, по преимуществу античных, касающемуся принципа воздаяния и Золотого правила (ЗП), а также Заповеди любви. В своей совокупности этот материал, тщательно проанализированный Диле, позволяет по-новому взглянуть на некоторые стороны генезиса морали и роли в этом процессе эволюции принципа воздаяния и его отдельной трансформации в золотое правило. Заслуживают внимания указания Диле на роль софистов и их философии образования в формировании ЗП, а также его взгляд на исторически ранние образчики формулы ЗП. Оценка Диле ЗП в качестве своеобразного, утонченного выражения принципа воздаяния, его определяющей роли в формировании ценностного стандарта ЗП, привела Диле к выводу о слабой, вопреки традиционной интерпретации, сопряженности ЗП с Заповедью любви и, соответственно, не такой высокой его важности для христианской этики. На основе анализа взглядов и характера аргументации, представленных в книге, в статье делается вывод о том, что у Диле было недостаточно разработанное теоретическое представление о ЗП, в котором не учитывалось во всей полноте своеобразие его нормативного содержания и функциональных особенностей, а также его роль в формировании морального в собственном смысле слова воззрения на мир.
В статье рассматриваются различные теологические интерпретации евангельского сюжета, называемого «самоуничижением Христа», или «кенозисом». Автор считает, что эти интерпретации являются выражением основных типов морально-философского восприятия жизни. В статье выделяются три версии кенозиса: восхождение, проникновение и бессилие. Первая версия предполагает, что жизнь Христа представляла собой совершенствование, в процессе которого происходило преодоление условий земной жизни человека; вторая утверждает, что Христос не преодолевал условий земного существования, но демонстрировал, как в рамках этих условий возможно достижение Царства Божьего; третья исходит из того, что кенозис – это история, раскрывающая бессилие Бога перед лицом им же созданного мира. Эти три версии кенозиса соответствуют трем типам морально-философского отношения к жизни. Первое отношение можно определить как «футуристическое»: мир с необходимостью должен стать лучше того, каким он есть. Второе отношение определяется как «презентное»: мир к лучшему изменить нельзя, но индивидуум всегда может обрести в нем свободу и самодостаточность. Третье отношение определяется как «восполняющее»: история человечества не имеет какой-то восходящей направленности, но подвластна некоторым нашим волевым усилиям, которые могут быть как конструктивными, т. е. меняющими существующие нормы и ценности в соответствии с обстоятельствами, так и деструктивными, т. е. направленными на насилие и разрушение. Для современного секуляризованного мира наиболее актуальным является, конечно, последнее отношение и свойственная ему дихотомия.
Издательство
- Издательство
- Институт философии
- Регион
- Россия, Москва
- Почтовый адрес
- 109240, г. Москва, ул. Гончарная, д. 12, стр. 1.
- Юр. адрес
- 109240, г. Москва, ул. Гончарная, д. 12, стр. 1.
- ФИО
- Гусейнов Абдусалам Абдулкеримович (Директор)
- E-mail адрес
- iph@iphras.ru
- Контактный телефон
- +7 (495) 6979109
- Сайт
- https:/iphras.ru