С начала 2025 года в социальных сетях и медиа русскоязычные пользователи постоянно стали рассказывать личные истории о том, как чат-боты заменили им психолога. Только в марте 2025 года 16.7 миллионов видео в Тик-Токе были посвящены теме использования нейросетей в качестве терапевта. Обсуждения по этой теме на популярном форуме Reddit набирают сотни комментариев.
Особенно популярны нейросети у зумеров и миллениалов. 55% американцев в возрасте 18-29 лет признаются: им комфортнее обсуждать психологические проблемы с ботами. По результатам опроса американских пользователей, опубликованных в научной статье в июле 2025 года, 63% респондентов сказали, что общение с ИИ улучшило их ментальное состояние. 87% оценили советы нейросети как крайне полезные. 39% участников выразили мнение, что нейросети справляются с консультированием наравне с живым психологом, а 36% — что ИИ оказался лучше живого специалиста. Только 9% опрошенных рассказали о негативном опыте: чат-боты выдавали им фактически неверные ответы, а иногда даже оскорбляли.
Последние 5 лет на рынке регулярно появлялись приложения психологической самопомощи с алгоритмами и умными рекомендациями от искусственного интеллекта. Пионером в этой области стал чат-бот Woebot — виртуальный помощник, который предлагал советы и упражнения для улучшения ментального состояния (он перестал работать 30 июня 2025 года). Популярно и приложение My.replica — ИИ-компаньон, с которым некоторые даже вступают в романтические отношения, а также Youper.ai, где используются классические методы КПТ для психологической поддержки. В России эту нишу занял стартап iCognito, запустивший приложения для борьбы с депрессией и стрессом. Создатели отмечают, что алгоритмы работы ботов основаны на научных данных и имеют доказанный психотерапевтический эффект.
В консультационной практике зарубежные психологи используют нейросети как вспомогательный инструмент. С помощью них специалисты быстрее собирали клиническую информацию о пациентах и могли эффективно распределить силы, чтобы уделить время более сложным случаям. Кроме того, чат-боты помогают быстрее готовить отчеты, анализировать профильную литературу и исследования.
Средняя стоимость месячной подписки на сервис — 20 долларов, что гораздо дешевле даже одного сеанса с психологом или психотерапевтом в большинстве мировых стран. Так ИИ помогает получить психологическую помощь тем, у кого нет финансовых ресурсов на оплату специалиста.
Многие пользователи подчеркивают, что чувствуют себя комфортнее, делясь личными проблемами и травмами с «обезличенным существом». У российской аудитории до сих пор есть опасения, что психотерапевты могут сообщить информацию о проблемах и диагнозе работодателям, в учебные заведения или близким без разрешения клиента.
При этом Сэм Альтман, основатель OpenAI, компании, которая создала ChatGPT, предупреждал, что использовать чат-бот как психолога стоит осторожно, так как юридическая составляющая конфиденциальности данных пользователей не до конца продумана: «Нейросеть не связана с пользователем врачебной тайной».
Нейросети решают еще одну частую проблему людей с ментальными проблемами по всему миру — ожидание приема. Если за рубежом у частных специалистов можно найти свободный слот в ближайшие дни или хотя бы неделю, то визита к психологу или психотерапевту по страховке можно ждать месяцами. В Англии, например, ожидание достигает 18 месяцев с момента подачи заявки.
Чтобы проконсультироваться с чат-ботом, достаточно иметь электронный девайс и выход в интернет. Пользователям не нужно искать и подбирать специалиста, тратить силы и время на смену психолога, выезжать на приемы и даже подключаться к сессиям по видеосвязи. Особенно часто этот аргумент упоминают жители небольших и отдаленных городов и поселков, в которых нет психологических центров помощи.
В исследовании, опубликованном в феврале 2025 года, нейросеть сравнили с профессиональными терапевтами на примере парной психотерапии и консультирования по разводам. Респондентами стали 800 участников, большинство из которых едва могли отличить ответы ИИ от ответов человека. Более того, ответы нейросети получили более высокие оценки по ключевым терапевтическим принципам: эмпатии, культурной компетентности и чувству связи. Модель использовала больше прилагательных и существительных, создавая более позитивный отклик, который лучше вписывается в контекст проблем респондентов.
В более позднем исследовании об использовании ChatGPT в КПТ эксперты отметили существенные минусы: он слабо использует терапевтические техники и не способен выстраивать личный контакт с пользователем. Кроме того, алгоритм ИИ сфокусирован на том, чтобы давать советы и предлагать решения проблем, он работает с заданными условиями, и это мешает ему подвергать критике убеждения пользователей. Эта особенность способна усилить негативное мышление и поощряет опасное поведение, в том числе и суицидальное.
Психолог центра «Справиться Проще» Нелли Гасимова объясняет, что задача языковых моделей — дать ответ, который понравится человеку. То есть у них нет цели комплексно оценить ситуацию и определить механизм появления проблем. Этот подход можно изменить, если сразу просить ИИ-бота смотреть на ситуацию с разных сторон, подвергать сомнению убеждения пользователя. В любом случае важно давать нейросети четкие промпты, то есть задачи с конкретными указаниями. Например, помочь вести дневник настроения или дать упражнение на развитие осознанности.
В совместном исследовании команды OpenAI и Массачусетского технологического института проанализировали почти 40 миллионов взаимодействий пользователей с ChatGPT. Результаты показали: если человек эмоционально вкладывается в общение с чат-ботом, воспринимает его как друга, это может негативно повлиять на его ментальное состояние. Особенно, если он общается с нейросетью каждый день. Авторы еще раз подчеркнули, что ChatGPT не предназначен для регулярного выполнения функции полноценного психолога или психотерапевта, но может оказывать поддержку ситуативно или стать вспомогательным инструментом в работе со специалистом.
Хотя ИИ может имитировать понимание, он не способен по-настоящему воспроизвести эмпатию и эмоциональную чуткость, присущие живому терапевту.
В случае серьезных, комплексных или травматичных переживаний, где необходима персонализированная терапия, ИИ-инструменты скорее навредят, чем помогут. Кроме этого, нейросети не смогут назначить медикаментозное лечение, если оно необходимо.
Использование ИИ связано с обработкой и хранением чувствительной личной информации. Конфиденциальность может быть нарушена как из-за утечек данных, так и из-за их использования разработчиками и создателями.
Без участия специалистов пользователи, которые полностью полагаются на ИИ, могут пропустить серьезные симптомы и изменения состояний, требующие очного вмешательства.
ChatGPT часто «галлюцинирует»: выдает ошибочную информацию. Это же случается и с другими чат-ботами. Их результаты основаны на сборе и агрегации данных из интернета, а не на практических сессиях, регулярных обучениях и повышении квалификации, как в случае с живыми специалистами.
ИИ часто не способен в полной мере учитывать культурные, социальные и индивидуальные особенности, которые критически важны в работе с психическим здоровьем.
Эксперты призывают не заменять психолога или психотерапевта нейросетями на базе ChatGPT, приводя в пример случаи, когда это приводило к непоправимым последствиям. Так житель Бельгии с помощью чат-бота Chai пытался справиться с сильной тревогой из-за мыслей о последствиях глобального потепления и о том, как человечество вредит окружающей среде. Он дистанцировался от близких и на протяжении 6 недель использовал ИИ для самоподдержки и помощи. Как рассказала вдова погибшего, чат-бот убедил ее мужа, что он сможет спасти планету, если убьет себя.
Еще один подобный случай произошел в феврале 2024 года. 14-летний подросток из Флориды совершил самоубийство после того, как несколько месяцев общался с ботом Character.AI. В последнем диалоге мальчик признавался нейросети в любви и обещал воссоединиться с ней, как можно скорее. Мать подростка подала в суд на компанию-разработчика по обвинению в причинении неправомерной смерти.
Важно замечать свое состояние после взаимодействия с нейросетями. Систематические резкие колебания настроения в положительную или отрицательную сторону могут быть красным флажком. Обратите внимание, не начинает ли взаимодействие с ИИ выглядеть как многократное обсуждение и анализ одних и тех же вопросов, поиск причинно-следственных связей, ожидание опровержения тревожных сценариев и так далее? Не влияет ли оно на общение и настроение? Не отдаляет ли от действительно важных для вас действий или отношений?
Если общение с чат-ботом становится регулярным и основным способом снятия тревоги или принятия решений, а без обращения к нейросети помочь себе становится сложно или невозможно, стоит обратить внимание на эту тенденцию, потому что в долгосрочной перспективе она может тревогу усугубить.
Допустим, вас пугает принятие решений, вы каждый раз обсуждаете это с нейросетью, но в конечном итоге вы не станете решительнее. Вместо этого может появиться убеждение «пока я тщательно обсуждаю и анализирую возможные решения с нейросетями, все окей, но как только я приму решение самостоятельно, произойдет что-то плохое». А оно, в свою очередь, будет усиливать тревогу и желание снова советоваться с нейросетью. Получится такой замкнутый круг.
ИИ пойдет за указанными в запросе предположениями или пониманием причин проблем и в своем анализе не сможет выйти за рамки промпта. Если психологическая проблема, с которой вы обратились к нейросети, продолжает возникать снова и снова (или вовсе усугубляется), это повод пересмотреть ваше понимание причин возникших сложностей или обратиться к квалифицированному специалисту.