Возрастающее влияние технологий искусственного интеллекта на общество актуализировало вопрос формирования соответствующих профессиональных компетенций для работы с инновацией в ключевых отраслях экономики, в том числе в сфере медиа и коммуникаций. Появился общественный запрос на развитие новых цифровых навыков и умений - ИИ-грамотности. Компетенции, которые позволяют критически осмыслять ИИ-алгоритмы, взаимодействовать с ними и применять технологии в профессиональной деятельности становятся базовыми. ИИ-грамотность помогает специалистам сферы медиа и коммуникаций стать конкурентноспособными и независимыми в эпоху новой технологической революции. Целью исследования стало изучение сложившихся на данном этапе развития инновации концепций грамотности в области искусственного интеллекта и определение пула ИИ-компетенций для специалистов сферы медиа и коммуникаций. Формирование пула ИИ-компетенций основано на обобщении взглядов отечественных и зарубежных исследователей, исследовании медиапрактики реального внедрения ИИ-алгоритмов в алтайской медиаиндустрии и определении уровня ИИ-грамотности студентов массмедийных направлений подготовки Алтайского государственного университета. В результате автором был предложен пул медиакомпетенций в области ИИ-технологий, который включает шесть ключевых компонентов: 1) знание основ ИИ-технологий, 2) понимание механизмов работы ИИ- алгоритмов, 3) владение технологиями искусственного интеллекта для выполнения профессиональных задач в сфере медиа и коммуникаций, 4) критическое осмысление технологий и продуктов ИИ, 5) развитие эмоционального интеллекта, 6) знание и применение правовых и этических норм регулирования в области ИИ-технологий. Предложенный пул компетенций необходимо рассматривать в качестве важного элемента медиаобразования будущих специалистов массмедиа.
Статья предлагает междисциплинарный анализ феномена дезинформации в условиях цифровой эпохи, объединяя подходы психологии, социологии, права и технологий. Рассматриваются ключевые механизмы, способствующие распространению ложной информации: когнитивные искажения, такие как склонность к подтверждению своей точки зрения и эффект повторяемости, эмоциональные триггеры (страх, гнев), а также социальные факторы, включая формирование «эхо-камер» в социальных сетях и кризис доверия к традиционным медиа. Особое внимание уделяется роли технологий искусственного интеллекта, которые, с одной стороны, усугубляют проблему через генерацию синтетического контента, а с другой – предоставляют инструменты для его детекции и нейтрализации. Правовой анализ рассматривает международные регуляторные подходы, акцентируя необходимость баланса между противодействием дезинформации и защитой свободы слова. Отмечается, что гибкие модели, сочетающие саморегулирование платформ и государственный надзор, демонстрируют большую эффективность, чем жесткие запретительные меры. Технологические решения, такие как алгоритмы машинного обучения для анализа контента и блокчейн для верификации источников, рассматриваются в контексте их практического применения и ограничений. На основе проведенного исследования выделены ключевые элементы модели, включающие: образовательные программы по развитию критического мышления и медиаграмотности; правовые инициативы, направленные на прозрачность алгоритмов и ответственность платформ; технологические инновации, такие как гибридные системы модерации (ИИ + краудсорсинг). Работа акцентирует важность международного сотрудничества для разработки универсальных стандартов и этических норм в условиях быстро меняющегося цифрового ландшафта. Подчеркивается, что устойчивость информационной экосистемы зависит от синтеза технологической адаптивности, правовой согласованности и общественного доверия.