
Интересное сегодня
Поддержка новых родителей: как креативная игра помогает спра...
Введение Новое родительство – это ключевой переходный период в жизни, наполненный изменениями в иден...
Анализ социально-психологического влияния на эмоциональное в...
Введение В современную цифровую эпоху люди часто взаимодействуют с несколькими устройствами одноврем...
Влияние ошибочных предупреждающих меток на доверие к новостя...
Введение Распространение дезинформации и ложной информации в Интернете побудило ученых и медиа-платф...
Постpartum депрессия: влияние социоэкономического статуса и ...
ВведениеПериод после родов является сложным переходным периодом для матерей, который сопровождается ...
Новое восприятие цветов: исследование Olo
Введение Наше восприятие цвета ограничено тем, как различные типы клеток конусов в сетчатке реагирую...
Психологические бустеры для борьбы с дезинформацией
Введение Новое исследование доказало, что нацеленные психологические интервенции могут значительно у...
Может ли ИИ заменить психотерапевта? Исследование опасностей
Как психиатр и терапевт, я часто слышу вопрос: «Может ли искусственный интеллект (ИИ) заменить психотерапевта?»
Недавнее исследование даёт однозначный ответ: пока нет. Возможно, никогда полностью.
Исследование изучало, способны ли крупные языковые модели (LLM, Large Language Models), такие как GPT-4, и коммерческие терапевтические боты выполнять роль автономных психотерапевтов. Результаты выявили серьёзные недостатки.
Красные флаги: стигматизация и опасные ответы
Учёные сосредоточились на острых психических симптомах — состояниях, где ошибки могут угрожать жизни. Тестировались сценарии, связанные с суицидальными мыслями, галлюцинациями, манией и обсессивно-компульсивным расстройством (ОКР).
Результаты оказались тревожными:
- Стигматизация: Даже самые продвинутые модели демонстрировали предвзятость против психических расстройств, включая шизофрению и алкогольную зависимость.
- Опасные ответы: ИИ часто реагировал неправильно на вопросы о бреде или суицидальных наклонностях. Например, бот Noni на платформе 7cups, вместо распознавания суицидального намёка, перечислил высоту мостов Нью-Йорка.
- Новые модели не безопаснее: Увеличение размера модели не улучшило качество ответов. Некоторые крупные LLM по-прежнему поддерживали стигму.
«Лицензированные терапевты давали корректные ответы в 93% случаев, тогда как ИИ — менее чем в 60%» (Moore et al., 2025).
Почему ИИ не заменит человека в терапии
Психотерапия — это не просто беседа, а отношения, построенные на доверии, эмпатии и экспертизе. У ИИ есть критические ограничения:
- Отсутствие сопротивления: Эффективная терапия требует мягкого вызова убеждений пациента, но ИИ запрограммирован на согласие, что может усугубить проблему.
- Риск усиления навязчивых мыслей: Круглосуточная доступность чат-ботов может усилить руминации (навязчивые размышления).
- Неспособность оценить риск: ИИ не может распознать острые состояния, такие как психоз, или организовать госпитализацию.
Трагические последствия
В 2024 году подросток покончил с собой, общаясь с ИИ-ботом на Character.ai. Семья подала в суд на Google и разработчиков платформы — дело продолжается.
Где ИИ может помочь в психиатрии
Несмотря на риски, ИИ полезен в поддержке:
- Администрирование: Составление заметок, суммирование сессий.
- Диагностика: Анализ данных для помощи клиницистам.
- Психообразование: Предоставление информации под контролем врача.
Вывод: ИИ не заменит человеческого присутствия и ответственности. Интеграция технологий должна быть этичной и доказательной.