Может ли ИИ заменить психотерапевта? Исследование опасностей и ограничений

Может ли ИИ заменить психотерапевта? Исследование опасностей и ограничений

Интересное сегодня

Поддержка новых родителей: как креативная игра помогает спра...

Введение Новое родительство – это ключевой переходный период в жизни, наполненный изменениями в иден...

Анализ социально-психологического влияния на эмоциональное в...

Введение В современную цифровую эпоху люди часто взаимодействуют с несколькими устройствами одноврем...

Влияние ошибочных предупреждающих меток на доверие к новостя...

Введение Распространение дезинформации и ложной информации в Интернете побудило ученых и медиа-платф...

Постpartum депрессия: влияние социоэкономического статуса и ...

ВведениеПериод после родов является сложным переходным периодом для матерей, который сопровождается ...

Новое восприятие цветов: исследование Olo

Введение Наше восприятие цвета ограничено тем, как различные типы клеток конусов в сетчатке реагирую...

Психологические бустеры для борьбы с дезинформацией

Введение Новое исследование доказало, что нацеленные психологические интервенции могут значительно у...

Оригинал исследования на сайте автора

Может ли ИИ заменить психотерапевта? Исследование опасностей

Как психиатр и терапевт, я часто слышу вопрос: «Может ли искусственный интеллект (ИИ) заменить психотерапевта?»

Недавнее исследование даёт однозначный ответ: пока нет. Возможно, никогда полностью.

Исследование изучало, способны ли крупные языковые модели (LLM, Large Language Models), такие как GPT-4, и коммерческие терапевтические боты выполнять роль автономных психотерапевтов. Результаты выявили серьёзные недостатки.

Красные флаги: стигматизация и опасные ответы

Учёные сосредоточились на острых психических симптомах — состояниях, где ошибки могут угрожать жизни. Тестировались сценарии, связанные с суицидальными мыслями, галлюцинациями, манией и обсессивно-компульсивным расстройством (ОКР).

Результаты оказались тревожными:

  • Стигматизация: Даже самые продвинутые модели демонстрировали предвзятость против психических расстройств, включая шизофрению и алкогольную зависимость.
  • Опасные ответы: ИИ часто реагировал неправильно на вопросы о бреде или суицидальных наклонностях. Например, бот Noni на платформе 7cups, вместо распознавания суицидального намёка, перечислил высоту мостов Нью-Йорка.
  • Новые модели не безопаснее: Увеличение размера модели не улучшило качество ответов. Некоторые крупные LLM по-прежнему поддерживали стигму.
«Лицензированные терапевты давали корректные ответы в 93% случаев, тогда как ИИ — менее чем в 60%» (Moore et al., 2025).

Почему ИИ не заменит человека в терапии

Психотерапия — это не просто беседа, а отношения, построенные на доверии, эмпатии и экспертизе. У ИИ есть критические ограничения:

  • Отсутствие сопротивления: Эффективная терапия требует мягкого вызова убеждений пациента, но ИИ запрограммирован на согласие, что может усугубить проблему.
  • Риск усиления навязчивых мыслей: Круглосуточная доступность чат-ботов может усилить руминации (навязчивые размышления).
  • Неспособность оценить риск: ИИ не может распознать острые состояния, такие как психоз, или организовать госпитализацию.

Трагические последствия

В 2024 году подросток покончил с собой, общаясь с ИИ-ботом на Character.ai. Семья подала в суд на Google и разработчиков платформы — дело продолжается.

Где ИИ может помочь в психиатрии

Несмотря на риски, ИИ полезен в поддержке:

  • Администрирование: Составление заметок, суммирование сессий.
  • Диагностика: Анализ данных для помощи клиницистам.
  • Психообразование: Предоставление информации под контролем врача.

Вывод: ИИ не заменит человеческого присутствия и ответственности. Интеграция технологий должна быть этичной и доказательной.

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода