Интересное сегодня
Исследование влияния виртуальной реальности на вызывание тяг...
Введение Алкогольная зависимость (AD) является одной из самых серьезных проблем здравоохранения, с т...
Максимизация силы вашего рассеянного ума для эффективного вы...
Введение Многие из нас хотели бы достигать большего в том, что действительно важно, но с меньшими ус...
Социальное обучение у диких крыс: как наблюдение за сородича...
Экспериментальные доказательства социального обучения у диких крыс Rattus norvegicus в полуп...
Исследование влияния предпринимательского образования на пре...
Введение Предпринимательство рассматривается как панацея от экономических спадов и проблем занятости...
Факторы риска и взаимосвязь между слабостью, падениями и пси...
Введение Глобальная демографическая ситуация претерпевает значительные изменения: доля пожилых людей...
Как социальная тревожность влияет на работу: признаки и спос...
Как социальная тревожность влияет на работу Социальная тревожность на рабочем месте может серьёзно о...
Может ли ИИ заменить психотерапевта? Исследование опасностей
Как психиатр и терапевт, я часто слышу вопрос: «Может ли искусственный интеллект (ИИ) заменить психотерапевта?»
Недавнее исследование даёт однозначный ответ: пока нет. Возможно, никогда полностью.
Исследование изучало, способны ли крупные языковые модели (LLM, Large Language Models), такие как GPT-4, и коммерческие терапевтические боты выполнять роль автономных психотерапевтов. Результаты выявили серьёзные недостатки.
Красные флаги: стигматизация и опасные ответы
Учёные сосредоточились на острых психических симптомах — состояниях, где ошибки могут угрожать жизни. Тестировались сценарии, связанные с суицидальными мыслями, галлюцинациями, манией и обсессивно-компульсивным расстройством (ОКР).
Результаты оказались тревожными:
- Стигматизация: Даже самые продвинутые модели демонстрировали предвзятость против психических расстройств, включая шизофрению и алкогольную зависимость.
- Опасные ответы: ИИ часто реагировал неправильно на вопросы о бреде или суицидальных наклонностях. Например, бот Noni на платформе 7cups, вместо распознавания суицидального намёка, перечислил высоту мостов Нью-Йорка.
- Новые модели не безопаснее: Увеличение размера модели не улучшило качество ответов. Некоторые крупные LLM по-прежнему поддерживали стигму.
«Лицензированные терапевты давали корректные ответы в 93% случаев, тогда как ИИ — менее чем в 60%» (Moore et al., 2025).
Почему ИИ не заменит человека в терапии
Психотерапия — это не просто беседа, а отношения, построенные на доверии, эмпатии и экспертизе. У ИИ есть критические ограничения:
- Отсутствие сопротивления: Эффективная терапия требует мягкого вызова убеждений пациента, но ИИ запрограммирован на согласие, что может усугубить проблему.
- Риск усиления навязчивых мыслей: Круглосуточная доступность чат-ботов может усилить руминации (навязчивые размышления).
- Неспособность оценить риск: ИИ не может распознать острые состояния, такие как психоз, или организовать госпитализацию.
Трагические последствия
В 2024 году подросток покончил с собой, общаясь с ИИ-ботом на Character.ai. Семья подала в суд на Google и разработчиков платформы — дело продолжается.
Где ИИ может помочь в психиатрии
Несмотря на риски, ИИ полезен в поддержке:
- Администрирование: Составление заметок, суммирование сессий.
- Диагностика: Анализ данных для помощи клиницистам.
- Психообразование: Предоставление информации под контролем врача.
Вывод: ИИ не заменит человеческого присутствия и ответственности. Интеграция технологий должна быть этичной и доказательной.