Цель состоит в попытке исследовать влияние основных механизмов генерирования фейковой информации на социум в современном медиадискурсе. Гипотеза исследования заключается в том, что с развитием возможностей искусственного интеллекта (ИИ) генерирование фейков происходит с помощью глубинных когнитивно-лингвистических моделей, поскольку «сильный» / «strong» ИИ основан на генеративной архитектуре нейросети, которая способна «учиться», решать сложные комплексные задачи без какого-либо вмешательства со стороны человека, что представляет собой экзистенциональную угрозу существования цивилизации.
Процедура и методы. При анализе эмпирического материала нами использовался ряд методов и приёмов для анализа текстов, сгенерированных с применением нейросетей, таких как контекстуальный анализ, метод обобщения и систематизации, компонентный и сопоставительный анализ.
Результаты. Нами была проанализирована фейковая информация, сгенерированная нейросетями, а также был проведён эксперимент проверки степени правдивости информации, сгенерированной «ChatGPT», которая оказалась на 99% фейком. Кроме того, был проведён эксперимент с использованием опции «аргумент» агрегатора нейросети «GPTunnel», цель которого состояла в том, чтобы выявить качество аргументации на заданную тему. Эксперимент показал, что заявленное «умение логически мыслить и учитывать аргументы-опровержения» не подтвердилось. Однако стремительно развивающийся ИИ и увеличивающиеся возможности нейросетей, возможно, через совсем небольшое время создадут более усовершенствованную нейросеть, способную генерировать логически выстроенную аргументацию.
Теоретическая и / или практическая значимость. Результаты научного исследования вносят вклад в более глубокое понимание механизмов генерирования фейков с помощью генеративных нейросетей в современном медиадискурсе, что в перспективе поможет специалистам в области лингвистики решать проблемы, связанные с идентификацией текстов, созданных ИИ.
Цель нашего исследования состоит в том, чтобы проанализировать возможности манипуляции сознанием человека посредством использования искусственного интеллекта.
Процедура и методы. В процессе исследования авторами использовался междисциплинарный подход при рассмотрении специфики манипулятивного воздействия искусственным интеллектом на социум в целом и индивида в частности. Данный подход позволил применить ряд методов и приёмов для анализа текстов, сгенерированных с применением нейросетей, – таких как контекстуальный анализ, компонентный и сопоставительный анализ.
Результаты. Следствием лингвокогнитивного манипулирования через социальные сети, а также разнообразные платформы, существующие в виртуальном пространстве, является мощное социально-политическое воздействие на социум, поскольку социальные сети – это не только инструмент обмена информацией среди пользователей, так как именно социальные сети предоставляют большой выбор средств и техник манипулирования, а также – неограниченные возможности для применения искусственного интеллекта для манипулирования общественным сознанием. Возможности нейросетей практически не лимитированы, и, несмотря на то, что результаты работы искусственного интеллекта в совокупности идентичны, они чаще всего идеологически окрашены и не предлагают выбора ни лексики, ни синтаксиса. Использование подобных нейросетей приводит к снижению творческого потенциала индивида, мотивации к изучению и осмыслению явлений окружающей действительности, что в конечном итоге приведёт к манипуляции человеческим сознанием искусственным интеллектом.
Теоретическая и / или практическая значимость. Результаты научного исследования вносят вклад в дальнейшее осмысление опасности манипуляции сознанием искусственным интеллектом как гуманитарной проблемы. Анализ текстов, сгенерированных с помощью искусственного интеллекта, а также анализ языковых средств поможет в перспективе учитывать возможности искусственного интеллекта и вырабатывать методики, позволяющие ограничить сферу применения искусственного интеллекта.