Искусственный интеллект активно захватывает сферу за сферой, в том числе особые успехи и достижения можно видеть в сфере медицины и медицинских технологий. Однако внедрение искусственного интеллекта ставит целый ряд вопросов как практического, так и этического характера. Управление персональными данными становится ключевым вопросом при разработке искусственного интеллекта в медицине, поскольку эффективность таких систем напрямую зависит от доступа к обширным медицинским данным пациентов. Самым удобным решением для их использования является предварительная анонимизация. Однако при анонимизации существует риск повторной идентификации, а также возможна утрата потенциала информативности данных. В рамках настоящей статьи на примере США, ЕС и Сингапура рассматривается опыт в сфере правового регулирования обращения с медицинскими персональными данными при использовании систем искусственного интеллекта в медицине. Каждая из стран пытается найти баланс между защитой конфиденциальности персональных данных и развитием инноваций. На основе проведенного анализа можно сделать вывод, что фокус на развитие искусственного интеллекта требует определенных допущений в области защиты персональных данных, в то время как высокий жесткий стандарт защиты персональных данных может оказывать сдерживающее действие.искусственный интеллект, ИИ, медицинские данные, большие данные, конфиденциальность персональных данных
В последние годы технология «дипфейк» набирает стремительную популярность, развиваясь с необычайной быстротой. С помощью различных приложений каждый может самостоятельно и без особого труда создать фото- видео- или аудио-дипфейки. При этом их использование поднимает различные этические вопросы, связанные с дезинформацией и согласием, и создает риск неправомерного использования, например, в сфере политики, в различных мошеннических схемах. Все это свидетельствует о необходимости выстраивания адекватных моделей нормативного регулирования технологии «дипфейк», создания системы актов, направленных на защиту прав человека, в том числе в цифровой среде, и предупреждения ненадлежащего использования и совершения правонарушений с использованием данной технологии. Вместе с тем, технология «дипфейк» может использоваться и в полезных целях, что ставит перед законодателем довольно сложную задачу по поиску оптимального баланса. Необходимо закрепить эффективную систему правил использования технологии «дипфейк» и ответственности за их нарушение, не создавая при этом труднопреодолимые преграды развитию технологии в целом или не запрещая использование технологии «дипфейк» полностью. В настоящей статье рассматривается опыт США, Китая и Сингапура в сфере правового регулирования технологии «дипфейк» с целью поиска наиболее удачной модели. При всех различиях подходы США и Китая схожи в части принятия специального регулирования, в то время как Сингапур следует иным путем - внесения точечных изменений в законодательство и решения вопросов с помощью расширительного правоприменения. Авторы констатируют, что законодательные меры всех стран отражают стремление адаптировать свою правовую систему к вызовам, создаваемым развивающимися цифровыми технологиями. Рассмотренный опыт (при его изучении и адаптации) может быть полезен в создании оптимальной российской модели правового регулирования технологии «дипфейк». Ключевым решением видится необходимость маркировки всех видов дипфейк-контента.