В статье рассмотрены объективные предпосылки и основания для создания искусственного морального агента1 (ИМА), предложены аргументы как в пользу развития подобных проектов, так и демонстрирующие ограниченные возможности систем искусственного интеллекта (ИИ) в обладании субъектностью, необходимой для принятия моральных решений. Представлены подходы к понятию «искусственный моральный агент», рассмотрены некоторые концепции т. н. «машинной морали»2, обозначены изначальные условия/критерии, предъявляемые к ИМА. Проблема ИМА прослеживается во взаимосвязи с теориями в области аналитической этики и философии техники. На основании такого анализа предлагаются направления исследовательской и научноэкспериментальной работы по созданию ИМА. Обосновывается тезис о несостоятельности технической реализации универсального, человекоподобного ИМА со способностью решать сложные, разноплановые моральные дилеммы и задачи, действовать в широком и разнообразном поле моральных ситуаций. В связи с этим предлагается использовать новые понятия – вычислительный моральный квазиагент – МКА (computational moral quasi-agent), а когда решения принимаются на основе человеко-машинного взаимодействия – конвергентный, или гибридный моральный агент – ГМА (hybrid moral agent). В условиях недостаточной разработанности теоретической базы и наличия рисков внедрения ИМА предлагается сбалансированное, поэтапное развитие проектов на основе предметно-ориентированного, контекстуального подхода. Такой подход предполагает ответственное внедрение МКА применительно к отдельным классам систем (моделям), с конкретной прикладной задачей, в определенной физической или виртуальной среде. Целесообразность проектирования МКА или ГМА в каждом конкретном проекте должна быть оправдана, аргументирована и доказана.
В статье обосновывается ключевая роль нейрофилософии в формировании методологического базиса нейроэтики – дисциплины, ответственной за этическую оценку нейротехнологий (импланты, глубокая стимуляция мозга, нейромаркетинг). Автор демонстрирует, что нейрофилософский синтез данных нейронаук с классическими философскими концепциями создает необходимые рамки для анализа вызовов, связанных с вмешательством в мозг. Показано, что нейрофилософия при необходимом эпистемологическом скепсисе открывает возможности для защиты человеческого достоинства: предотвращает редукцию сознания к нейрокоррелятам, разрабатывает критерии аутентичности личности при нейромодуляциях, а также выявляет фундаментальные ограничения нейровизуализации. При этом распространение нейротехнологий порождает критические риски: эксплуатацию нейроуязвимостей в коммерческих целях, утрату конфиденциальности нейроданных и свободы воли, когда оказывается влияние на принятие решений. Особое внимание уделено необходимости нейрофилософской рефлексии для преодоления ключевых проблем: игнорирования субъективного опыта (квалиа) при нейровмешательствах, манипуляции поведением через триггеры страха и стыда, а также некорректной трактовки нейронаучных данных. Без такого фундамента нейроэтика не способна адекватно оценить этические последствия технологий, рискуя легитимизировать практики, угрожающие автономии и идентичности человека.