Naumov Arkady

Остановить искусственный апокалипсис

Техноинтеллектуалы всего мира с юношеским азартом обсуждают и комментируют открытое письмо группы обеспокоенных граждан, опубликованное в конце марта на интернет-портале американского Future of Life Institute (FLI, Институт будущего жизни) под заголовком «Сделайте паузу в гигантских ИИ-экспериментах» (Pause Giant AI Experiments)
Это алармистское воззвание было изначально подписано 1125 представителями научно-технологического и бизнес-сообщества, в том числе многими ведущими специалистами в сфере разработки искусственного интеллекта, а согласно апгрейду на 2 апреля, общее число его верифицированных подписантов превысило 2800. Всего свою поддержку содержащимся в нем опасениям и предложениям выразило уже более 50 тысяч человек.
В числе главных соавторов письма известный канадский IT-специалист из Монреальского университета Йошуа Бенджио, профессор Калифорнийского университета в Беркли Стюарт Расселл, CEO SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк, профессор Еврейского университета Иерусалима Юваль Ной Харари и еще несколько крупных ИИ-исследователей.
Публикация появилась вскоре после того, как 14 марта OpenAI, компания — разработчик сверхпопулярного чат-бота ChatGPT и главный возмутитель общественного спокойствия, представила новейшую версию большой языковой модели GPT-4, обладающую, по предварительным оценкам специалистов, целым рядом серьезных преимуществ по сравнению с промежуточной версией GPT-3.5, на базе которой генерировал свои человекоподобные тексты, программные коды и проч. пресловутый «виртуальный помощник» (одним из анонсированных новшеств GPT-4, в частности, является ее мультимодальность, то есть способность обрабатывать и анализировать не только текстовые запросы, но и изображения).
Рискнем предположить, что основные тезисы петиции Илона Маска и его единомышленников хотя бы в самых общих чертах уже известны всем мало-мальски образованным представителям рода человеческого, поэтому ограничимся лишь кратким ее дайджестом: «Системы ИИ с интеллектом, сравнимым с человеческим, могут представлять большую опасность для общества и человечества… Передовой ИИ может привести к глубоким изменениям в истории жизни на Земле, и его развитие следует планировать и управлять им с особой тщательностью и с привлечением соответствующих ресурсов. К сожалению, такого планирования и управления не происходит… и в последние месяцы лаборатории ИИ ввязались в неконтролируемую гонку по разработке и внедрению все более мощных цифровых разумов, которые никто — даже их создатели — не может понять, предсказать их поведение или надежно контролировать».
Далее авторы призвали все лаборатории ИИ «немедленно приостановить, как минимум на шесть месяцев, обучение систем ИИ, более мощных, чем GPT-4» и добавили, что контроль за всеми ИИ-центрами должен быть публичным, причем в случае их несогласия на подобные действия в процесс должны вмешаться правительства, которым следует объявить об официальном моратории на осуществление новых экспериментов в этой области.
После этого «лаборатории ИИ и независимые эксперты должны использовать паузу для совместной разработки и внедрения набора общих протоколов безопасности для передового проектирования и разработки ИИ, которые будут строго проверяться и контролироваться независимыми внешними экспертами».
ЗАКРОЕМ ЭТУ ЛАВОЧКУ
Относительно миролюбивое предложение Илона Маска со товарищи о контролируемой «шестимесячной паузе», за которой, по мнению авторов открытого письма, все-таки может последовать «лето ИИ» (AI summer), то есть новый расцвет исследовательской деятельности на этом горячем научно-технологическом направлении, произвело эффект красной тряпки на наиболее радикальных противников ChatGPT и подобных ему нейросетевых продуктов.
Одним из наиболее резонансных комментариев, по сути сразу ставшим манифестом непримиримых, стала публикация от 29 марта в журнале Time с жестким и недвусмысленным заголовком «Приостановки разработок ИИ недостаточно. Нужно все закрыть».
И, что весьма показательно, автором этой статьи является Элиезер Юдковски, ведущий американский специалист в области теории принятия решений, который на протяжении многих лет возглавляет Machine Intelligence Research Institute (Исследовательский институт машинного интеллекта, Беркли, штат Калифорния) и считается фактическим создателем важнейшего ИИ-направления — теории так называемого общего (универсального) искусственного интеллекта (AGI, Artificial General Intelligence; в самом широком смысле AGI — это способность «небелкового» интеллектуального агента понимать или исследовать любые интеллектуальные задачи и проблемы, которые подвластны человеческому разуму).
В статье о Юдковски в Википедии также упоминается, что он «широко известен благодаря популяризации идеи дружественного искусственного интеллекта» (friendly artificial intelligence).
Однако, судя по его многостраничному апокалиптическому посланию к землянам, от этой своей ранней наивной идеи (а по большому счету и вообще от идеи необходимости AGI) Юдковски отказался: ИИ в его текущей продвинутой версии, по мнению гуру, представляет не просто большую, а летальную угрозу всему человечеству.
В своем тексте он многократно повторяет простую мантру: «Закройте всё это» (Shut it all down), в том числе используя ее в качестве финального аккорда, и завершает послание пафосным пророчеством: «Мы не готовы к этому. И в обозримом будущем не будем готовы. Если мы продолжим, все умрут, включая детей, которые не выбирали этого и не сделали ничего плохого. Закройте это».
Юдковски настаивает на том, что предложенный авторами открытого письма мораторий на новые крупные тренировочные запуски усовершенствованных GPT-подобных моделей должен быть бессрочным и всемирным. По его мнению, не должно быть никаких исключений, в том числе для отдельных государств или военного применения. Необходимо отключить все крупные кластеры GPU (большие компьютерные фермы, где совершенствуются самые мощные продукты ИИ), установить потолок на максимальное количество вычислительных мощностей, которое будет разрешено использовать для обучения систем ИИ, и снижать его в ближайшие годы. Надо срочно заключить многонациональные правительственные соглашения, чтобы предотвратить возможный перенос запрещенной деятельности в другие места, отслеживать все проданные в мире графические процессоры. Список этих драконовских идей Юдковски можно продолжить и дальше, но мы, пожалуй, на этом остановимся.
Добавим лишь, что и многие другие эксперты в сфере разработки ИИ, пусть и не в таких жестких формах, разделяют подход Элиезера Юдковски и согласны с ним в том, что «искусственная пауза» (причем неважно, как долго она будет продолжаться) лишь отсрочит неизбежное последующее массовое распространение вредоносных ИИ-алгоритмов и решений на базе модернизированных технологий.
Так, в интервью изданию Venture Beat ведущий аналитик Gartner Авивах Литан предположил, что «за GPT-4 быстро последует GPT-5, который, как ожидается, будет обладать AGI (вышеупомянутым универсальным искусственным интеллектом. — “Стимул”). А когда появится AGI, скорее всего, будет слишком поздно вводить контроль безопасности, и мы уже не сможем эффективно защитить человечество…».
НЕ ИСКУССТВЕННЫЙ, ДА И НЕ ОСОБО ИНТЕЛЛЕКТУАЛЬНЫЙ
Но есть примеры альтернативного и совсем не апокалиптического видения ситуации. Например, куда спокойнее относится к происходящему известный IT-публицист и основатель популярного интернет-ресурса The Syllabus Евгений Морозов, мнение которого 30 марта опубликовала британская The Guardian.
Господин Морозов полагает, что «в действительности то, что мы сегодня называем искусственным интеллектом, не является ни искусственным, ни интеллектуальным. В ранних системах искусственного интеллекта в значительной степени доминировали формальные правила и программы, поэтому некоторые разговоры о его “искусственности” были, по крайней мере, оправданны. Но современные системы, включая всеми любимый ChatGPT, черпают свою силу из работы настоящих людей: художников, музыкантов, программистов и писателей, чьи творческие и профессиональные достижения сегодня используются для построения различных “текстовых паттернов”. В лучшем случае это “неискусственный” интеллект».
Что же касается интеллектуальной составляющей, то, по мнению Евгения Морозова, очень сильный отпечаток на то, как мы понимаем сегодня возможности ИИ, наложили «императивы холодной войны», благодаря которой, вообще говоря, и осуществлялось финансирование значительной части ранних работ в области ИИ. И, как далее отмечает автор, «мы, по сути, говорим о том виде интеллекта, который может пригодиться в боевых условиях. Например, сильная сторона современного ИИ заключается в подборе шаблонов. Это неудивительно, учитывая, что одним из первых военных применений нейронных сетей — технологии, лежащей в основе ChatGPT, — было обнаружение кораблей на аэрофотоснимках. Однако многие критики отмечают, что обладание “интеллектом” означает далеко не только умение находить различные закономерности. Не менее важна способность к обобщениям… Когда мы обобщаем, наши эмоции зачастую отменяют устоявшиеся и, казалось бы, “рациональные” классификации идей и повседневных объектов».
Человеческий интеллект (в отличие от той его «разновидности», которая освоена тем же ChatGPT) не одномерен. Он, по словам Морозова, основывается на том, что чилийский психоаналитик XX века Игнасио Матте Бланко назвал «би-логикой» (bi-logic): слиянием статичной и вневременной логики формальных рассуждений и контекстуальной и очень динамичной логики эмоций. Первая ищет различия, вторая же быстро стирает их.
И наша «би-логика» позволяет «перегруппировывать (переосмысливать) обыденные вещи новыми и нестандартными способами. Мы все можем делать это… ИИ же никогда не достигнет этого, потому что машины не могут обладать чувством (а не простым знанием) прошлого, настоящего и будущего… Иными словами, машины остаются в ловушке сингулярной формальной логики».

Чтобы оставить комментарий, необходимо зарегистрироваться или войти.