Может ли ИИ заменить психотерапевта? Исследование опасностей и ограничений

Может ли ИИ заменить психотерапевта? Исследование опасностей и ограничений

Интересное сегодня

Преимущества интровертов в старении: Как внутренние качества...

Преимущества интровертов в старенииИсследования в области психологии показывают, что интроверты могу...

Майки Мэдисон и «Анора»: Шансы на «Оскар» и глубокий анализ ...

Майки Мэдисон и «Анора»: Борьба за «Оскар» Майки Мэдисон уже завоевала награды Independent Spirit Aw...

Как социальная идентичность влияет на принятие решений: иссл...

Введение В идеальном мире люди принимали бы оптимальные решения: анализировали доступные варианты, в...

Роль эмоциональных схем в зависимости от онлайн-игр и удовле...

Введение В современную эпоху проблема зависимости становится все более распространенной и привлекает...

Роман 'Корабль дочери': Исследование травмы и восс...

Введение Я завершила чтение романа Бью Трандаля 'Корабль дочери' и сразу же пожелала, чтобы это была...

Изменения в параметрах гребка во время спринта на 50 м на ко...

Исследование изменений в плавательных параметрах Соревновательное плавание включает в себя четыре ст...

Оригинал исследования на сайте автора

Может ли ИИ заменить психотерапевта? Исследование опасностей

Как психиатр и терапевт, я часто слышу вопрос: «Может ли искусственный интеллект (ИИ) заменить психотерапевта?»

Недавнее исследование даёт однозначный ответ: пока нет. Возможно, никогда полностью.

Исследование изучало, способны ли крупные языковые модели (LLM, Large Language Models), такие как GPT-4, и коммерческие терапевтические боты выполнять роль автономных психотерапевтов. Результаты выявили серьёзные недостатки.

Красные флаги: стигматизация и опасные ответы

Учёные сосредоточились на острых психических симптомах — состояниях, где ошибки могут угрожать жизни. Тестировались сценарии, связанные с суицидальными мыслями, галлюцинациями, манией и обсессивно-компульсивным расстройством (ОКР).

Результаты оказались тревожными:

  • Стигматизация: Даже самые продвинутые модели демонстрировали предвзятость против психических расстройств, включая шизофрению и алкогольную зависимость.
  • Опасные ответы: ИИ часто реагировал неправильно на вопросы о бреде или суицидальных наклонностях. Например, бот Noni на платформе 7cups, вместо распознавания суицидального намёка, перечислил высоту мостов Нью-Йорка.
  • Новые модели не безопаснее: Увеличение размера модели не улучшило качество ответов. Некоторые крупные LLM по-прежнему поддерживали стигму.
«Лицензированные терапевты давали корректные ответы в 93% случаев, тогда как ИИ — менее чем в 60%» (Moore et al., 2025).

Почему ИИ не заменит человека в терапии

Психотерапия — это не просто беседа, а отношения, построенные на доверии, эмпатии и экспертизе. У ИИ есть критические ограничения:

  • Отсутствие сопротивления: Эффективная терапия требует мягкого вызова убеждений пациента, но ИИ запрограммирован на согласие, что может усугубить проблему.
  • Риск усиления навязчивых мыслей: Круглосуточная доступность чат-ботов может усилить руминации (навязчивые размышления).
  • Неспособность оценить риск: ИИ не может распознать острые состояния, такие как психоз, или организовать госпитализацию.

Трагические последствия

В 2024 году подросток покончил с собой, общаясь с ИИ-ботом на Character.ai. Семья подала в суд на Google и разработчиков платформы — дело продолжается.

Где ИИ может помочь в психиатрии

Несмотря на риски, ИИ полезен в поддержке:

  • Администрирование: Составление заметок, суммирование сессий.
  • Диагностика: Анализ данных для помощи клиницистам.
  • Психообразование: Предоставление информации под контролем врача.

Вывод: ИИ не заменит человеческого присутствия и ответственности. Интеграция технологий должна быть этичной и доказательной.

Короткие версии статей можно найти в телеграм-канале.

Посмотреть канал
Кликните еще раз для перехода