Интересное сегодня
Связь между интеллектом и функциональной связностью мозга: р...
Введение Любую систему, состоящую из взаимосвязанных элементов, можно смоделировать как сеть. Одной ...
Социальный интеллект кошек: как мимика влияет на их общение
Социальная жизнь кошек: миф или реальность? «Что?» — возможно, спросите вы, прочитав заголовок. «Соц...
Воображение движения влево и вправо: целостное движение тела...
Введение Моторное воображение (MI) — это способность симулировать физические движения без их реально...
Сенсорные особенности аутизма: исследование аудиторной гипер...
Сенсорные различия при аутизме Сенсорные различия при аутизме сильно влияют на качество ж...
Психология авторитаризма: почему люди отказываются от демокр...
Почему люди выбирают авторитаризм? На многих уровнях переизбрание Дональда Трампа выглядит как анома...
Как контекст физической активности влияет на психическое здо...
Как контекст физической активности влияет на психическое здоровье Новое исследование Университета Дж...
Может ли ИИ заменить психотерапевта? Исследование опасностей
Как психиатр и терапевт, я часто слышу вопрос: «Может ли искусственный интеллект (ИИ) заменить психотерапевта?»
Недавнее исследование даёт однозначный ответ: пока нет. Возможно, никогда полностью.
Исследование изучало, способны ли крупные языковые модели (LLM, Large Language Models), такие как GPT-4, и коммерческие терапевтические боты выполнять роль автономных психотерапевтов. Результаты выявили серьёзные недостатки.
Красные флаги: стигматизация и опасные ответы
Учёные сосредоточились на острых психических симптомах — состояниях, где ошибки могут угрожать жизни. Тестировались сценарии, связанные с суицидальными мыслями, галлюцинациями, манией и обсессивно-компульсивным расстройством (ОКР).
Результаты оказались тревожными:
- Стигматизация: Даже самые продвинутые модели демонстрировали предвзятость против психических расстройств, включая шизофрению и алкогольную зависимость.
- Опасные ответы: ИИ часто реагировал неправильно на вопросы о бреде или суицидальных наклонностях. Например, бот Noni на платформе 7cups, вместо распознавания суицидального намёка, перечислил высоту мостов Нью-Йорка.
- Новые модели не безопаснее: Увеличение размера модели не улучшило качество ответов. Некоторые крупные LLM по-прежнему поддерживали стигму.
«Лицензированные терапевты давали корректные ответы в 93% случаев, тогда как ИИ — менее чем в 60%» (Moore et al., 2025).
Почему ИИ не заменит человека в терапии
Психотерапия — это не просто беседа, а отношения, построенные на доверии, эмпатии и экспертизе. У ИИ есть критические ограничения:
- Отсутствие сопротивления: Эффективная терапия требует мягкого вызова убеждений пациента, но ИИ запрограммирован на согласие, что может усугубить проблему.
- Риск усиления навязчивых мыслей: Круглосуточная доступность чат-ботов может усилить руминации (навязчивые размышления).
- Неспособность оценить риск: ИИ не может распознать острые состояния, такие как психоз, или организовать госпитализацию.
Трагические последствия
В 2024 году подросток покончил с собой, общаясь с ИИ-ботом на Character.ai. Семья подала в суд на Google и разработчиков платформы — дело продолжается.
Где ИИ может помочь в психиатрии
Несмотря на риски, ИИ полезен в поддержке:
- Администрирование: Составление заметок, суммирование сессий.
- Диагностика: Анализ данных для помощи клиницистам.
- Психообразование: Предоставление информации под контролем врача.
Вывод: ИИ не заменит человеческого присутствия и ответственности. Интеграция технологий должна быть этичной и доказательной.