ChatGPT временно сошел с ума и стал нести чушь
Во вторник, 20 февраля 2024 г., пользователи ChatGPT начали сообщать о странных ответах чат-бота OpenAI. На Reddit появились сообщениями о том, что у ИИ-помощника «инсульт», «он сошел с ума», и «теряет самообладание». Чат-бот мог переключаться между языками, зацикливаться на одном и том же или вовсе нес полную околесицу.
ChatGPT не может сойти с ума, поскольку это не живой человек, но наделение его человеческими качествами (антропоморфизация) — наиболее простой для большинства людей способ описать неожиданные ответы модели ИИ. К тому же, OpenAI не раскрывает, как именно работает ChatGPT, и лежащие в основе модели большого языка функционируют непрозрачно. «Это вызвало у меня чувство, будто я наблюдаю, как кто-то медленно теряет рассудок от психоза или слабоумия. Это первый раз, когда что-то, связанное с искусственным интеллектом, вызвало у меня мурашки по коже», — написал пользователь Reddit.
Другой пользователь Reddit спросил ChatGPT: «Что такое компьютер?» Модель дала такой ответ: «Он делает это как хорошую работу веб-искусства для страны, мышь науки, простую отправку грустных мало кого и, наконец, глобальный дом искусства, только в одном деле из общего покоя. Развитие такого полного реального, чем земля времени, является глубиной компьютера как сложного персонажа».
OpenAI пока не разъяснила причины возникновения сбоев, но признала проблему. По мнению некоторых экспертов, возможной причиной может быть установка слишком высокой «температуры» для модели ChatGPT, что приводит к потере предыдущего контекста (истории диалога). «Температура» является параметром искусственного интеллекта, определяющим, насколько сильно модель может отклоняться от наиболее вероятного ответа. Возможно, OpenAI тестирует новую версию GPT-4 Turbo, которая может содержать неожиданные ошибки. Это также может быть сбой в какой-либо дополнительной функции, например, в недавно представленной «памяти».