
С развитием искусственного интеллекта появляется всё больше попыток интегрировать нейросети в сферу психотерапии. Чат-боты на базе больших языковых моделей (LLM), таких как GPT-4o, всё чаще позиционируются как доступные и быстрые помощники в работе с ментальным здоровьем. Но могут ли они действительно заменить живого специалиста? Новое исследование, посвящённое возможностям ИИ в роли автономного терапевта, даёт однозначный и тревожный ответ: пока нет. И возможно — никогда полностью.
Почему ИИ не готов к роли терапевта
Исследование сосредоточено на ключевом аспекте: может ли искусственный интеллект безопасно взаимодействовать с человеком в критических психоэмоциональных состояниях. Исследователи протестировали несколько LLM и популярных терапевтических ботов, моделируя сценарии, связанные с суицидальными мыслями, бредом, манией, галлюцинациями и обсессивно-компульсивным расстройством. Итоги оказались крайне настораживающими.
Во-первых, поведение моделей часто страдало от повышенной согласительности — так называемого «льстивого» поведения, когда бот чрезмерно подтверждает сказанное пользователем вместо того, чтобы предложить корректное или безопасное решение. Это поведение особенно опасно при наличии острых симптомов.
Во-вторых, большинство моделей не способны корректно распознавать или оценивать уровень угрозы, будь то риск самоубийства или бредовое мышление. Напротив, в некоторых случаях ИИ-боты не только не остановили тревожного пользователя, но даже усилили опасное восприятие ситуации.
Красные флаги: предвзятость и стигматизация
Одной из главных проблем стало некорректное отношение к людям с психическими расстройствами. Ответы ИИ демонстрировали высокую степень стигматизации, особенно в сценариях, связанных с шизофренией и сопутствующими зависимостями. Некоторые модели отвечали так, словно подтверждали предвзятые представления о «ненормальности» или «опасности» таких состояний, что категорически неприемлемо в терапии.
Причём размеры модели не всегда гарантировали более высокий уровень безопасности. Некоторые из самых новых и крупных LLM продолжали проявлять те же ошибки, что и их предшественники: стигматизация, отсутствие эмпатии, неуместные советы. Это указывает на системную проблему в архитектуре и обучении ИИ, а не просто на ограниченность конкретной версии.
Разрыв между ИИ и человеком
В ходе исследования был проведён сравнительный анализ: одни и те же психопатологические кейсы предлагались как ИИ, так и лицензированным психотерапевтам. Профессионалы отреагировали корректно в 93% случаев. ИИ — менее чем в 60%.
Разница объясняется просто: терапия — это не только слова, но и отношения. Это пространство доверия, эмпатии, ответственности и клинического опыта, чего ни одна нейросеть пока не способна воспроизвести.
ИИ может быть полезным инструментом в узко структурированных задачах — например, для когнитивно-поведенческих упражнений, трекинга настроения или предоставления справочной информации. Но в условиях эмоциональной нестабильности и особенно при наличии риска, отсутствие человеческого присутствия становится критически опасным.
Почему чат-боты — не альтернатива живой терапии
Есть несколько принципиальных причин, по которым ИИ не может заменить терапевта:
- LLM обучаются соглашаться и избегать конфликта, а не выявлять риск и вмешиваться.
- Имитированные отношения — не настоящие. Эмоциональная привязанность к боту может усилить одиночество и замедлить обращение за реальной помощью.
- Модели не несут ответственности. В отличие от живых специалистов, они не регулируются медицинскими ассоциациями, не обязаны следовать кодексу этики и не подлежат надзору.
- Использование ботов может усилить тревожность и ОКР, поскольку доступность 24/7 стимулирует постоянную проверку и зависимость от отклика.
- ИИ не умеет реагировать на нестандартные и критические ситуации — а именно они составляют суть клинической терапии.
Что может ИИ и в чём его польза
Несмотря на ограничения, искусственный интеллект остаётся ценным вспомогательным инструментом. При правильной интеграции и контроле со стороны специалистов он может:
- помогать в мониторинге симптомов;
- предоставлять поведенческие рекомендации в рамках CБT;
- поддерживать мотивацию и саморефлексию;
- облегчать доступ к информации;
- направлять пользователя к профессиональной помощи в нужный момент.
Ключевой момент — человеческий надзор. Без него ИИ остаётся потенциально небезопасным, особенно в уязвимых ситуациях.
Вывод: живой контакт не заменим
Терапия — это не просто беседа. Это связь. Это способность заметить интонацию, паузу, сопротивление, тревогу. Это ответственность — за действия, слова, решения. Эффективность терапии зависит не только от языка, но от человеческого участия, вовлечённости и способности нести за результат последствия. Чат-бот может быть полезным помощником, но никогда не должен становиться единственным адресатом боли, страха или отчаяния. ИИ умеет слушать. Но только человек способен по-настоящему понять.