
Интересное сегодня
Как создать химию в отношениях: научные методы и практически...
Любовь с первого взгляда: больше, чем просто мимолётная искра Любовь с первого взгляда — это не прос...
Как организационная культура и корпоративная социальная отве...
Организационная культура — это система общих ценностей, убеждений и норм, определяющих поведение сот...
Убеждения владельцев и ветеринаров о стилях одежды ветеринар...
Введение В медицине первого впечатления важно для установления позитивных или негативных отношений м...
Новое исследование показывает, что неуверенность в своих сил...
Новое исследование, проведенное Кристофером Дж. Кагна, доктором философии из Фонда Кесслера, показыв...
Карьера в Снеговых Видах Спорта: Поиск Смысла и Личностного ...
Исследование карьеры в снеговых видах спорта Десятилетнее исследование инструкторов снега показало, ...
Почему мужчины сначала добиваются, а потом отступают?
Динамика толкания и тяги в отношениях — это шаблон взаимодействия, при котором один человек чередует...
Проблема климатической дезинформации
Дезинформация о климате снижает осведомленность общества и подрывает поддержку мер по смягчению последствий изменений климата. Попытки донести научные факты часто нивелируются ложными утверждениями, что усиливает поляризацию в обществе. Для противодействия этому требуются комплексные решения, объединяющие технологии и психологию.
Роль психологических и технологических методов
Психологические исследования показывают, что эффективные методы борьбы с дезинформацией включают как фактологическую коррекцию (разъяснение научных данных), так и разоблачение манипулятивных техник (логических ошибок и риторических уловок). Однако автоматическое обнаружение таких ошибок в климатической дезинформации остается малоизученной областью.
Разработка модели обнаружения ложных аргументов
В данном исследовании применяется технокогнитивный подход, объединяющий критическое мышление и машинное обучение. На основе таксономий FLICC (Fake experts, Logical fallacies, Impossible expectations, Cherry picking, Conspiracy theories) и CARDS (Computer Assisted Recognition of Denial and Skepticism) был создан датасет, связывающий примеры климатической дезинформации с конкретными логическими ошибками.
Обучение и оценка модели
Датасет использовался для обучения модели на основе архитектуры DeBERTa. Производительность оценивалась с помощью метрики F₁, которая учитывает как точность, так и полноту предсказаний. Результаты показали, что модель превосходит предыдущие разработки в 2.5–3.5 раза.
- Легче всего обнаруживаются аргументы с ложными экспертами и анекдотическими свидетельствами.
- Сложнее выявлять ошибки, требующие контекстных знаний, такие как упрощение, искажение фактов и ленивая индукция.
Перспективы и этические вопросы
Модель демонстрирует высокую эффективность в обнаружении логических ошибок, но ее можно улучшить за счет увеличения датасета и уточнения классификации сложных случаев. Важно учитывать этические аспекты: технологии борьбы с дезинформацией не должны использоваться для цензуры, а должны способствовать развитию критического мышления.
«Технокогнитивный подход объединяет силу технологий и психологии, чтобы дать людям инструменты для распознавания манипуляций»
Дальнейшие исследования могут быть направлены на интеграцию этой модели с системами автоматического опровержения, а также на адаптацию под другие темы, такие как дезинформация о вакцинах.