Архив статей

Моральный тест Тьюринга в оптиках нормализации отношения к ИИ в социально значимых технологиях будущего (2025)
Выпуск: Том 9, № 4 (2025)
Авторы: Антипов Алексей Владимирович

Распространение новых технологий поднимает проблему применения и адаптации теста Тьюринга для оценки моральных решений, принимаемых системами искусственного интеллекта (ИИ), в контексте биоэтики. Актуальность этой проблемы для философии культуры заключается в необходимости анализа перспектив гармоничного сосуществования человека и искусственных систем с учётом доминирующих культурных нормативных систем, одной из которых является мораль. Цель данного исследования состоит в уточнении подходов к решению этических проблем, связанных с ИИ, на фоне его включения в новейшие социальные технологии. В соответствии с этим необходимо было решить следующие задачи исследования: 1) выявить и описать проблемы, связанные с распространением ИИ в социальной сфере; 2) уточнить специфику постановки этических вопросов, возникающих по ходу внедрения ИИ в этой области; 3) систематизировать сведения о деонтологических оптиках, претендующих на решение проблемы социальной нормализации использования ИИ. Материалами исследования выступают сведения о новейших разработках социального инжиниринга, то есть технологиях, применяющих ИИ в решении социальных задач (в медицине и уходе за пожилыми), а также исследовательская литература, посвящённая использованию ИИ в социальной инженерии будущего. Работа опирается на культурно-ориентированный подход. Использованы метод кейсов и SWOT-анализ. На основе анализа исследовательской литературы представлены различные модификации морального Теста Тьюринга: сравнительный моральный тест Тьюринга (сМТТ), тест на этическую компетентность, тест этической безопасности машины и тест Тьюринга на распределение (моральных) приоритетов (Turing Triage Test). В результате исследования доказано, что моральный тест Тьюринга является функциональным инструментом для демонстрации этической безопасности искусственных систем, но не может служить доказательством наличия у них моральной субъектности в человеческом понимании, что особенно актуально для чувствительной сферы биоэтики. Выводы исследования заключаются в следующем. Во-первых, в рамках разработки указанных модификаций описаны методологические трудности и ограничения данных подходов, связанные с проблемой подражания, «отсутствием понимания» у ИИ, риском программных ошибок и фундаментальными различиями между мышлением и способностью быть моральным субъектом. Во-вторых, продемонстрирована практическая значимость разработки критериев этической верификации ИИ и уточнены конкретные биоэтические проблемы, возникающие при их использовании (проблема ответственности, автономии пациента, стигматизации, равенства доступа). В-третьих, систематизированы философские подходы к вопросу о возможности создания «подлинно» морального ИИ; особо выделены возражения против данного тезиса, основанные на аргументах биологического натурализма (Дж. Сёрл), феноменологии (Х. Дрейфус), а также концепции эрозии моральных навыков человека.

Сохранить в закладках
О роли этической теории в структуре искусственных моральных агентов в культурном поле информационного общества (2024)
Выпуск: Том 8, № 2 (2024)
Авторы: Антипов Алексей Владимирович

В рамках данного исследования актуализируются этические и философские аспекты создания искусственных интеллектуальных систем и искусственных моральных агентов. Актуальность обращения к данной проблеме обусловлена насущными задачами осмысления процесса формирования цифровой этики, которая в пространстве современной культуры занимает всё более значимое положение. Неоднозначный характер данного феномена определил не до конца сформированный предмет анализа. Вместе с тем очевидно, что этические характеристики выступают частью общекультурного пространства встраивания в мир людей интеллектуальных систем и рефлексии над этим процессом. Таким образом, цель исследования состоит в выделении и анализе различных подходов к роли этической теории в структуре искусственных моральных агентов. Для этого реализуются следующие задачи. Во-первых, рассматриваются различные стратегии этической регуляции с точки зрения их формализации для использования в интеллектуальных системах. Особое внимание уделяется негативным проявлениям создания искусственных моральных агентов, а также анализируются аргументы против их появления. Среди последних выделяются как общеизвестные (проблема злонамеренного использования и экзистенциальные переживания человечества как вида), так и более специфичные для философии и этики (например, манипуляция поведением за счёт эмуляции эмоций и проблема удалённого доступа и использования). Во-вторых, поднимаются вопросы, связанные с этикой интеллектуальных систем, приводятся противоречия, связанные с их реализацией. В-третьих, анализируются деонтология и утилитаризм в качестве теорий, подходящих для формализации и использования в структуре и архитектуре искусственных моральных агентов. Для реализации обозначенных шагов используются методология этической и гуманитарной экспертизы и анализа кейсов. Основным материалом для проведения исследования служат теоретические модели реализации искусственных моральных агентов и встраивания в них этических теорий, таких как деонтология и утилитаризм. Также на основании кейса социального робота рассматриваются различия между деонтологией и утилитаризмом с точки зрения разрешения конкретных ситуаций. Результат исследования состоит в обнаружении как позитивных моментов, так и существенных изъянов в каждом из рассмотренных подходов. Например, использование утилитаризма как моральной арифметики больше и лучше отвечает требованиям формализации и использования в архитектуре искусственных моральных агентов, поскольку каждому действию и его последствиям возможно представить количественный параметр. Однако деонтология позволяет выстроить теорию разрешенных и запрещенных действий, которые способны лучше отражать реальный процесс совершения поступка. Основным затруднением для формализации деонтологии является проблема соотнесения типов долженствования и сложность работы с категорией допустимости действия, поскольку допустимое не является ни запрещённым действием, ни обязательным для исполнения. На основании проведённого анализа обоснована перспективность следующего вывода: недостаточно просто формализовать этическую теорию, необходимо сделать так, чтобы искусственные агенты могли самостоятельно построить этическую модель.

Сохранить в закладках