Интересное сегодня
Исторический взгляд на пространственные исследования мозга
Введение Научные исследования мозга всегда опирались на физические и пространственные описания, разл...
Как перестать мыслить катастрофически: эффективные методы бо...
Что такое катастрофическое мышление? Катастрофическое мышление (или «катастрофизация») — это распрос...
Игровое время и импульсивность как независимые, но взаимодоп...
Введение Гейминг стал популярным времяпрепровождением, с более чем 3 миллиардами геймеров по всему м...
Неравенство счастья и экономический рост в Китае: кривая Куз...
Неравенство счастья и экономический рост в Китае: исследование кривой Кузнеца Исследования счастья,...
Могут ли собаки оценивать людей? Новое исследование развенчи...
Могут ли собаки оценивать людей? Многие владельцы собак уверены, что их питомцы интуитивно определяю...
Влияние ПТСР на течение сахарного диабета 1 типа: результаты...
Введение Более 14% людей с сахарным диабетом 1 типа (СД1) имеют коморбидные психические расстройства...
Основные выводы исследования
Новое исследование, использующее инструменты искусственного интеллекта (ИИ), обнаружило, что посты в сообществах, распространяющих ненавистнический контент, имеют значительное сходство с речевыми паттернами, характерными для форумов, посвящённых определённым расстройствам личности.
Что обнаружили учёные?
- Речевое сходство: Сообщества ненависти демонстрируют лингвистические черты, аналогичные тем, что встречаются в группах, посвящённых расстройствам кластера B (нарциссическое, антисоциальное и пограничное расстройства личности).
- Отсутствие диагностической связи: Исследователи подчёркивают, что нельзя утверждать, будто люди с психическими расстройствами чаще проявляют ненависть — речь идёт только о схожести языковых моделей.
- Потенциал для терапии: Эти данные могут помочь в разработке новых стратегий противодействия ненавистническому контенту с использованием методов, применяемых в психиатрии.
Методология исследования
Учёные из Техасского университета A&M, доктор Эндрю Уильям Александер и доктор Хонгбин Ван, проанализировали посты из 54 сообществ Reddit, включая:
- r/ADHD — сообщество для обсуждения синдрома дефицита внимания и гиперактивности (СДВГ).
- r/NoNewNormal — группа, посвящённая дезинформации о COVID-19.
- r/Incels — сообщество, заблокированное за распространение ненавистнического контента.
С помощью языковой модели GPT-3 тысячи постов были преобразованы в числовые представления («эмбеддинги»), отражающие их семантические особенности. Затем эти данные анализировались методами машинного обучения и топологического анализа данных (TDA — Topological Data Analysis).
«Речевые паттерны участников сообществ ненависти демонстрируют сильное сходство с теми, что характерны для людей с определёнными психическими расстройствами» — отмечают авторы исследования.
Почему это важно?
Социальные сети играют значительную роль в распространении ненавистнического контента и дезинформации, что может способствовать росту предрассудков, дискриминации и даже реального насилия. Понимание психологических аспектов этого явления открывает новые возможности для борьбы с ним.
Ключевые аспекты:
- Эмоциональная дисрегуляция: Люди в сообществах ненависти часто демонстрируют трудности с управлением гневом.
- Низкая эмпатия: Отсутствие сопереживания к благополучию других — общая черта как для некоторых расстройств личности, так и для участников токсичных онлайн-групп.
- Дезинформация vs. психическое здоровье: В отличие от ненавистнического контента, связь между дезинформацией и психическими расстройствами оказалась слабее, за исключением возможного компонента тревожности.
Что это означает для будущего?
Авторы исследования подчёркивают, что их работа не утверждает причинно-следственной связи между психическими расстройствами и склонностью к ненавистническим высказываниям. Вместо этого, она указывает на то, что длительное участие в таких сообществах может формировать черты, сходные с расстройствами личности.
Доктор Александер отмечает: «Возможно, отсутствие эмпатии, культивируемое в сообществах ненависти, со временем влияет на людей, делая их менее восприимчивыми к чувствам других. Это серьёзный сигнал о том, что длительное воздействие таких групп вредно для психического здоровья».
Перспективы применения результатов:
- Разработка терапевтических интервенций для участников токсичных онлайн-сообществ.
- Создание алгоритмов для раннего выявления ненавистнического контента на основе лингвистического анализа.
- Образовательные программы, направленные на развитие эмпатии и критического мышления.