Архив статей журнала
Сегодня лингвистические нейросети вторгаются во все сферы деятельности человека, включая и науку, что оценивается в целом положительно, поскольку приносит явный экономический эффект. Согласно популярным прогнозам, уже нынешнее поколение людей столкнётся с появлением продвинутого искусственного интеллекта, развитого на базе линейки языковых нейросетей GPT, во всём превосходящего человеческий разум. Однако эти ожидания, по-видимому, завышены. Главная причина кроется в том, что полем деятельности современных лингвистических моделей искусственного интеллекта является человеческий язык общения, но языки интуитивного мышления, без которых генерация нового знания, очевидно, не происходит, пока не поддаются формализации IT-средствами. Целью работы была оценка экспертных способностей современной нейросети ChatGPT-3.5 в ходе обсуждения явлений разного масштаба: устройство управления наукой и основы современной науки на Западе и в России и проблема обратимости и необратимости времени в физике, преломляющейся в теориях роста кристаллов. Исходно лингвистическая модель направлена на составление максимально ожидаемого суждения. И это качество приводит к эклектичности всей совокупности ответов по широкой теме диалога. Результаты общения с нейросетью по узкоспециальной теме продемонстрировали её неосведомлённость об известной проблеме физики и, что более важно, неспособность к применению её в теории роста кристаллов, в которой эта проблема является ключевой. Увлечение, необоснованный оптимизм или страхи в отношении ИИ, характеризующие настроения современного общества, пока в небольшой степени касаются научной практики, если не считать вреда от непрерывно возрастающего информационного шума, к которому становятся причастны и нейросети.Сегодня лингвистические нейросети вторгаются во все сферы деятельности человека, включая и науку, что оценивается в целом положительно, поскольку приносит явный экономический эффект. Согласно популярным прогнозам, уже нынешнее поколение людей столкнётся с появлением продвинутого искусственного интеллекта, развитого на базе линейки языковых нейросетей GPT, во всём превосходящего человеческий разум. Однако эти ожидания, по-видимому, завышены. Главная причина кроется в том, что полем деятельности современных лингвистических моделей искусственного интеллекта является человеческий язык общения, но языки интуитивного мышления, без которых генерация нового знания, очевидно, не происходит, пока не поддаются формализации IT-средствами. Целью работы была оценка экспертных способностей современной нейросети ChatGPT-3.5 в ходе обсуждения явлений разного масштаба: устройство управления наукой и основы современной науки на Западе и в России и проблема обратимости и необратимости времени в физике, преломляющейся в теориях роста кристаллов. Исходно лингвистическая модель направлена на составление максимально ожидаемого суждения. И это качество приводит к эклектичности всей совокупности ответов по широкой теме диалога. Результаты общения с нейросетью по узкоспециальной теме продемонстрировали её неосведомлённость об известной проблеме физики и, что более важно, неспособность к применению её в теории роста кристаллов, в которой эта проблема является ключевой. Увлечение, необоснованный оптимизм или страхи в отношении ИИ, характеризующие настроения современного общества, пока в небольшой степени касаются научной практики, если не считать вреда от непрерывно возрастающего информационного шума, к которому становятся причастны и нейросети.
В статье рассмотрены основные вопросы когнитивизма как базы искусственного интеллекта (ИИ) в современной философской трактовке этих сущностей. Дана классификация ИИ по уровню когнитивизма базовых функций. Рассмотрены вопросы эволюции когнитивных возможностей искусственного интеллекта. Подняты проблемы предсказуемости негативного воздействия ИИ на социум. В статье выделены основные когнитивные искажения, которые возможны при применении искусственного интеллекта в научных исследованиях, а именно иллюзия исследовательской широты. Авторы дают рекомендации для учёных и редакций научных журналов по грамотному использованию ИИ в научных экспериментах. В данной работе также поднята проблема доверия в области кибербезопасности систем ИИ. Авторы рассматривают гипотезу о наличии сознания у чат-ботов и делают однозначные выводы о его отсутствии.