Нейросеть как психолог: почему все больше людей идут за терапией к ChatGPT

Люди все чаще обращаются к нейросетям за психологической поддержкой. В соцсетях есть миллионы постов, в которых пользователи делятся своим опытом и говорят, какие запросы им помогли.

Рассказываем, в чем причина бума на ИИ-психологов и так ли терапия чат-ботов эффективна в сравнении с сессиями с живым человеком.
Редактор «Справиться Проще»
Слежу за порядком на сайте
Все публикации

Как пользователи стали доверять ИИ свое ментальное здоровье

С начала 2025 года в социальных сетях и медиа русскоязычные пользователи постоянно стали рассказывать личные истории о том, как чат-боты заменили им психолога. Только в марте 2025 года 16.7 миллионов видео в Тик-Токе были посвящены теме использования нейросетей в качестве терапевта. Обсуждения по этой теме на популярном форуме Reddit набирают сотни комментариев. 

Особенно популярны нейросети у зумеров и миллениалов. 55% американцев в возрасте 18-29 лет признаются: им комфортнее обсуждать психологические проблемы с ботами. По результатам опроса американских пользователей, опубликованных в научной статье в июле 2025 года, 63% респондентов сказали, что общение с ИИ улучшило их ментальное состояние. 87% оценили советы нейросети как крайне полезные. 39% участников выразили мнение, что нейросети справляются с консультированием наравне с живым психологом, а 36% — что ИИ оказался лучше живого специалиста. Только 9% опрошенных рассказали о негативном опыте: чат-боты выдавали им фактически неверные ответы, а иногда даже оскорбляли.

Частые запросы, с которыми обращаются к нейросетям: тревога, депрессия, стресс, проблемы в отношениях и низкая самооценка. Источник изображения: sentio.org

Последние 5 лет на рынке регулярно появлялись приложения психологической самопомощи с алгоритмами и умными рекомендациями от искусственного интеллекта. Пионером в этой области стал чат-бот Woebot — виртуальный помощник, который предлагал советы и упражнения для улучшения ментального состояния (он перестал работать 30 июня 2025 года). Популярно и приложение My.replica — ИИ-компаньон, с которым некоторые даже вступают в романтические отношения, а также Youper.ai, где используются классические методы КПТ для психологической поддержки. В России эту нишу занял стартап iCognito, запустивший приложения для борьбы с депрессией и стрессом. Создатели отмечают, что алгоритмы работы ботов основаны на научных данных и имеют доказанный психотерапевтический эффект. 

В консультационной практике зарубежные психологи используют нейросети как вспомогательный инструмент. С помощью них специалисты быстрее собирали клиническую информацию о пациентах и могли эффективно распределить силы, чтобы уделить время более сложным случаям. Кроме того, чат-боты помогают быстрее готовить отчеты, анализировать профильную литературу и исследования. 

Почему люди предпочитают ИИ психологам

Цена

Средняя стоимость месячной подписки на сервис — 20 долларов, что гораздо дешевле даже одного сеанса с психологом или психотерапевтом в большинстве мировых стран. Так ИИ помогает получить психологическую помощь тем, у кого нет финансовых ресурсов на оплату специалиста. 

Анонимность 

Многие пользователи подчеркивают, что чувствуют себя комфортнее, делясь личными проблемами и травмами с «обезличенным существом». У российской аудитории до сих пор есть опасения, что психотерапевты могут сообщить информацию о проблемах и диагнозе работодателям, в учебные заведения или близким без разрешения клиента. 

При этом Сэм Альтман, основатель OpenAI, компании, которая создала ChatGPT, предупреждал, что использовать чат-бот как психолога стоит осторожно, так как юридическая составляющая конфиденциальности данных пользователей не до конца продумана: «Нейросеть не связана с пользователем врачебной тайной». 

Быстрое время ответа

Нейросети решают еще одну частую проблему людей с ментальными проблемами по всему миру — ожидание приема. Если за рубежом у частных специалистов можно найти свободный слот в ближайшие дни или хотя бы неделю, то визита к психологу или психотерапевту по страховке можно ждать месяцами. В Англии, например, ожидание достигает 18 месяцев с момента подачи заявки.

Доступность

Чтобы проконсультироваться с чат-ботом, достаточно иметь электронный девайс и выход в интернет. Пользователям не нужно искать и подбирать специалиста, тратить силы и время на смену психолога, выезжать на приемы и даже подключаться к сессиям по видеосвязи. Особенно часто этот аргумент упоминают жители небольших и отдаленных городов и поселков, в которых нет психологических центров помощи. 

Чем чат-боты на основе ИИ отличаются от живых специалистов

В исследовании, опубликованном в феврале 2025 года, нейросеть сравнили с профессиональными терапевтами на примере парной психотерапии и консультирования по разводам. Респондентами стали 800 участников, большинство из которых едва могли отличить ответы ИИ от ответов человека. Более того, ответы нейросети получили более высокие оценки по ключевым терапевтическим принципам: эмпатии, культурной компетентности и чувству связи. Модель использовала больше прилагательных и существительных, создавая более позитивный отклик, который лучше вписывается в контекст проблем респондентов.

В более позднем исследовании об использовании ChatGPT в КПТ эксперты отметили существенные минусы: он слабо использует терапевтические техники и не способен выстраивать личный контакт с пользователем. Кроме того, алгоритм ИИ сфокусирован на том, чтобы давать советы и предлагать решения проблем, он работает с заданными условиями, и это мешает ему подвергать критике убеждения пользователей. Эта особенность способна усилить негативное мышление и поощряет опасное поведение, в том числе и суицидальное. 

Психолог центра «Справиться Проще» Нелли Гасимова объясняет, что задача языковых моделей — дать ответ, который понравится человеку. То есть у них нет цели комплексно оценить ситуацию и определить механизм появления проблем. Этот подход можно изменить, если сразу просить ИИ-бота смотреть на ситуацию с разных сторон, подвергать сомнению убеждения пользователя. В любом случае важно давать нейросети четкие промпты, то есть задачи с конкретными указаниями. Например, помочь вести дневник настроения или дать упражнение на развитие осознанности.

В совместном исследовании команды OpenAI и Массачусетского технологического института проанализировали почти 40 миллионов взаимодействий пользователей с ChatGPT. Результаты показали: если человек эмоционально вкладывается в общение с чат-ботом, воспринимает его как друга, это может негативно повлиять на его ментальное состояние. Особенно, если он общается с нейросетью каждый день. Авторы еще раз подчеркнули, что ChatGPT не предназначен для регулярного выполнения функции полноценного психолога или психотерапевта, но может оказывать поддержку ситуативно или стать вспомогательным инструментом в работе со специалистом. 

Нужно воспринимать взаимодействие с нейросетью не как с терапевтом, а как с инструментом самопомощи. Например, с книгой. ИИ-модели могут быстро обработать сотни источников и дать краткие выжимки, экономя наше время и ресурсы. К примеру, если вам тяжело уверенно коммуницировать с людьми, можно описать проблему нейросети и попросить поделиться книгами или рабочими тетрадями, которые помогут начать разбираться с трудностями.

Однако стоит понимать, что в «живой» терапии психологу важно учитывать уникальный жизненный контекст клиента, в то время как различные информационные источники самопомощи не могут этого сделать. А значит, читателю или пользователю нужно самостоятельно подумать о том, как адаптировать рекомендации в свою жизнь.

Но без наличия достаточного уровня поддержки и распределения задач, скажем, молодой работающей маме может быть трудно интегрировать классические рекомендации по поведенческой активации. В этом случае нужно индивидуально со специалистом обсуждать барьеры, которые мешали следовать плану терапии.

И, разумеется, как и с любым другим источником психообразовательной информации, не стоит воспринимать заключения нейросети как валидную психиатрическую диагностику. За ней можно обращаться только к квалифицированным медицинским специалистам.
Нелли Гасимова
Клинический психолог центра «Справиться Проще»

Чем рискует человек, выбирая нейросеть вместо психолога

Отсутствие человеческой эмпатии

Хотя ИИ может имитировать понимание, он не способен по-настоящему воспроизвести эмпатию и эмоциональную чуткость, присущие живому терапевту.

Ограничения в сложных случаях 

В случае серьезных, комплексных или травматичных переживаний, где необходима персонализированная терапия, ИИ-инструменты скорее навредят, чем помогут. Кроме этого, нейросети не смогут назначить медикаментозное лечение, если оно необходимо.

Конфиденциальность и безопасность данных

Использование ИИ связано с обработкой и хранением чувствительной личной информации. Конфиденциальность может быть нарушена как из-за утечек данных, так и из-за их использования разработчиками и создателями.

Чрезмерная зависимость

Без участия специалистов пользователи, которые полностью полагаются на ИИ, могут пропустить серьезные симптомы и изменения состояний, требующие очного вмешательства.

Ошибки в распознавании симптомов и диагностировании 

ChatGPT часто «галлюцинирует»: выдает ошибочную информацию. Это же случается и с другими чат-ботами. Их результаты основаны на сборе и агрегации данных из интернета, а не на практических сессиях, регулярных обучениях и повышении квалификации, как в случае с живыми специалистами.

Этические и культурные аспекты

ИИ часто не способен в полной мере учитывать культурные, социальные и индивидуальные особенности, которые критически важны в работе с психическим здоровьем.

Эксперты призывают не заменять психолога или психотерапевта нейросетями на базе ChatGPT, приводя в пример случаи, когда это приводило к непоправимым последствиям. Так житель Бельгии с помощью чат-бота Chai пытался справиться с сильной тревогой из-за мыслей о последствиях глобального потепления и о том, как человечество вредит окружающей среде. Он дистанцировался от близких и на протяжении 6 недель использовал ИИ для самоподдержки и помощи. Как рассказала вдова погибшего, чат-бот убедил ее мужа, что он сможет спасти планету, если убьет себя. 

Еще один подобный случай произошел в феврале 2024 года. 14-летний подросток из Флориды совершил самоубийство после того, как несколько месяцев общался с ботом Character.AI. В последнем диалоге мальчик признавался нейросети в любви и обещал воссоединиться с ней, как можно скорее. Мать подростка подала в суд на компанию-разработчика по обвинению в причинении неправомерной смерти.

Что нужно знать, прежде чем использовать ИИ как психотерапевта

Мнение Нелли Гасимовой

Важно замечать свое состояние после взаимодействия с нейросетями. Систематические резкие колебания настроения в положительную или отрицательную сторону могут быть красным флажком. Обратите внимание, не начинает ли взаимодействие с ИИ выглядеть как многократное обсуждение и анализ одних и тех же вопросов, поиск причинно-следственных связей, ожидание опровержения тревожных сценариев и так далее? Не влияет ли оно на общение и настроение? Не отдаляет ли от действительно важных для вас действий или отношений?

Если общение с чат-ботом становится регулярным и основным способом снятия тревоги или принятия решений, а без обращения к нейросети помочь себе становится сложно или невозможно, стоит обратить внимание на эту тенденцию, потому что в долгосрочной перспективе она может тревогу усугубить.

Допустим, вас пугает принятие решений, вы каждый раз обсуждаете это с нейросетью, но в конечном итоге вы не станете решительнее. Вместо этого может появиться убеждение «пока я тщательно обсуждаю и анализирую возможные решения с нейросетями, все окей, но как только я приму решение самостоятельно, произойдет что-то плохое». А оно, в свою очередь, будет усиливать тревогу и желание снова советоваться с нейросетью. Получится такой замкнутый круг.

ИИ пойдет за указанными в запросе предположениями или пониманием причин проблем и в своем анализе не сможет выйти за рамки промпта. Если психологическая проблема, с которой вы обратились к нейросети, продолжает возникать снова и снова (или вовсе усугубляется), это повод пересмотреть ваше понимание причин возникших сложностей или обратиться к квалифицированному специалисту.

Лайфхаки и техники для вашего роста в нашем телеграм-канале @handlingbettercenter
Психолог, который поможет узнать себя лучше
Сессии с проверенными специалистами, работающими в доказательных подходах
Психолог, который поможет узнать себя лучше
Сессии с проверенными специалистами, работающими в доказательных подходах

Популярно сегодня