Архив статей журнала
В статье рассматривается вопрос о терминологической корректности понятия “генеративный искусственный интеллект”. Дискуссия позволяет сделать вывод о том, что преждевременно утверждать о замене человека GPT-ассистентами (Generative Pre-trained Transformer Assistant - GPTA) в среде социокультурной электронной коммуникации. Персонологический функционализм, обосновывающий замену людей машинами, опирается на психофункционализм Неда Блока, доказывающего необходимость психологизации машинного функционализма путем введения “смысла” в продукты прохождения оригинального теста Тьюринга. Для персонологического функционализма минимально необходимыми составляющими тьюрингового теста являются “творчество” и “смысл”. В работе показано, почему GPTA не проходят креативного теста. Для демонстрации неспособности пройти тьюринговый текст на осмысленность дорабатывается машина Блока путем совмещения нейрокомпьютерной (1978 г.) и символьной версий (1981 г.). Для нового расширенного теста Блока сохраняется и усиливается аргументация предыдущих версий: машины типа GPTA не способны исполнять ни роли психологического функционализма - в частности, ни персонологического функционализма - в общем.
In a dialog with large language models (LLM) there is a coincidence of the addressee and addressee of the message, so such a dialog can be called autocommunication. A neural network can only answer a question that has a formulation. The question is formulated by the one who asks it, i. e. a human being. Human activity in dialog with neural networks provokes thoughts about the nature of such dialog. Composing prompts is one of the most creative parts of dialog with neural networks. But it is worth noting that a neural network is often better at composing prompts than a human. Does this mean that humans need to develop their questioning skills? In LLM-based dialog systems, the main value to the user is the ability to clarify and structure their own thoughts. The structuring of thoughts happens through questioning, through formulating and clarifying questions. Asking the right question is practically answering that question. Thus, thanks to autocommunication, the development, transformation, and restructuring of the human “I” itself takes place. Dialogue with large linguistic models acts as a discursive practice that allows people to formulate their own thoughts and transform their self through autocommunication. It is worth noting that for this kind of dialog, a certain image of the audience is normative or determinative of the material that can be produced in response to a given question. This is because the data for model training is provided by people, even if they do not and have never thought about it. Thus, a dialogic relationship develops between the generated text and the questioning audience that develops all participants in the communication.
This paper assesses the arguments of Emily M. Bender, Timnit Gebru, Angelina McMillan-Major and Margaret Mitchell in the influential article “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” These arguments disputed that Language Models (LM) can communicate and understand. In particular, I discuss the argument that LMs cannot communicate because their linguistic productions lack communicative intent and are not based on the real world or a model of the real world, which the authors regard as conditions for the possibility of communication and understanding. I argue that the authors’ view of communication and understanding is too restrictive and cannot account for vast instances of communication, not only human-to-human communication but also communications between humans and other entities. More concretely, I maintain that communicative intent is a possible but not necessary condition for communication and understanding, as it is oftentimes absent or unreliable. Communication need not be grounded in the real world in the sense of needing to refer to objects or state of affairs in the real world, because communication can very well be about hypothetical or unreal worlds and object. Drawing on Derrida’s philosophy, I elaborate alternative concepts of communication as the transmission of an operation of demotivation and overwhelming of interpretations with differential forces, and of understanding as the best guess or best interpretation. Based on these concepts, the paper argues that LMs could be said to communicate and understand.
В статье анализируются современные разработки в области искусственного интеллекта на основе созданной компанией OpenAI программы ChatGPT. Идея создания ИИ была высказана в 1950 году А. Тьюрингом же был предложен тест, прохождение которого могло бы утверждать, что ИИ создан. Определение понятия ИИ сталкиваются с трудностями. С точки зрения автора, интеллектуальными можно назвать те виды деятельности, которые позволяют Homo sapiens выделиться из окружающего птичьего мира, переставая опираться лишь на силу и быстроту движений. Распознание образов, самообучение и целенаправленность деятельности не являются характеристическими признаками интеллекта. Основным видом деятельности, которая специфична для человека и которая, будучи добавленной к распознаванию образов, самообучению и целенаправленной деятельности, делает их интеллектуальными, является понятийное мышление, умение отстаивать его именно на языке и использовать в рассуждениях. Исторически существовали две основные конкурирующие конференции к ИИ — логической и нейросетевой. Одним из серьезных изъянов нейросетевого совета является необъяснение способности рассуждений, которые приводят к тому или иному заключению, что затрудняет проверку их правильности. На конкретных примерах показано, что ChtGPT не научились корректно моделировать простейшие понятийные рассуждения. Причина этого кроется в фундаментальных ограничениях конституций в его основе большой языковой модели, которые невозможно исправить внешним обучением. Еще одним недостатком ChatGPT является его устойчивость к нейрохакингу — принуждению в ходе диалога принять нужные решения для пользователя. Это серьезная угроза для широкого применения нейронных сетей в области принятия управленческих решений. Статья написана на основе исследований, проведенных летом 2023 года.
This article explores a conceptual framework for understanding neural networks through the lens of the enactivist paradigm, a philosophical theory that posits that cognition arises from the dynamic interaction of an organism with its environment. We explore how neural networks, as complex adaptive systems, transcend their traditional role as computational machines and become active participants in their data-rich environment, evolving through continuous feedback and adaptation. Drawing parallels with biological systems, we argue that artificial neural networks exhibit what enactivists call “structural coupling” - symbiotic co-evolution with their information ecosystems. From this perspective, knowledge is not passively processed but actively constructed through repetitive interactions, each of which shapes the internal state of the system in a self-organizing manner similar to the sensorimotor activity of natural organisms. This approach goes beyond classical computational theories by emphasizing that machine cognition resembles human-like cognitive processes, an emergent form of “world creation.” Our analysis shows that these artificial entities have focal points, or internal observers, associated with patterns learned during training, suggesting that neural networks shape worldviews through active participation rather than passive observation. The paper reconceptualizes machine learning models as cognitive agents that bring new forms to our understanding of cognition and signals an epistemological shift in which knowledge itself is seen as participation and creation mediated by technologically complex but organically similar structures. This has important implications for both technical applications and theoretical debates in cognitive science, potentially changing the way we think about what cognition means in artificial and natural intelligence.
Ожидается, что ChatGPT, большая языковая модель (LLM) от OpenAI, окажет огромное влияние на многие аспекты жизни общества. В средствах массовой информации ведется много дискуссий по поводу LLM, а ученые все чаще обсуждают ее преимущества и этические недостатки. В этой статье исследуется глубокое влияние диалога в сократовском значении на западную и незападную мысль, подчеркивая его роль в поисках истины посредством активного мышления и диалектики. В отличие от сократического диалога, ChatGPT генерирует правдоподобные ответы на основе заранее подготовленных данных, не стремясь к объективной истине, личному опыту, интуиции и сочувствию. Ответы LLM ограничены набором обучающих данных и алгоритмами, которые могут закреплять предвзятость или дезинформацию. В то время как сократический диалог представляет собой творческий, философский обмен, наполненный онтологическим, этическим и экзистенциальным смыслом, взаимодействие с ChatGPT характеризуется как интерактивная обработка данных. Но так ли это на самом деле? Возможно, мы недооцениваем потенциал эволюционного роста больших языковых моделей? Эти вопросы имеют важные последствия для теоретических дебатов в когнитивной науке, меняя наше понимание того, что означает познание в искусственном и естественном интеллекте. В этом специальном выпуске ChatGPT как предмет философского анализа рассматривается с позиций сдержанного оптимизма и довольно жесткой критики. В него вошли шесть статей, охватывающих широкий круг тем. Первая группа исследователей подчеркивает, что машинное понимание и общение соответствуют человеческой практике. Другие утверждают, что ИИ не может достичь человеческого уровня интеллекта, потому что ему не хватает концептуального мышления и способности творить. Столь противоречивые интерпретации лишь подтверждают сложность и неоднозначность изучаемого феномена.