Я использую чат-бота на основе искусственного интеллекта в качестве психотерапевта, и, к сожалению, это ужасно.

Прежде чем перейти к сути, я должен быстро пояснить, что я ни в коем случае не призываю отказываться от услуг настоящих психотерапевтов. Терапия очень важна, но, в свою очередь, она может быть чрезвычайно дорогой и недоступной для многих из-за длинных очередей и других препятствий.

Как человек, который использовал ИИ для самых разных целей и дошел до того, что стал им одержим , я решил сделать его своим личным психотерапевтом.

В конце концов, ИИ не осуждает. На первый взгляд, он казался простым в использовании инструментом, и хотя он, возможно, и не стал для меня настоящей терапией, он, по крайней мере, мог бы стать для меня пространством для выплеска эмоций, анализа или обретения нового взгляда на вещи.

Я несколько недель пытался использовать Google Gemini в качестве личного психотерапевта и, к сожалению, пришёл к выводу: мой ИИ-терапевт — отстой. Хочу уточнить: дело не в том, что он был бесполезен или злонамерен, а в том, что он — мастер поверхностности, цифровой попугай под маской сочувствующего слушателя.

Поначалу все было замечательно: этот терапевт всегда был доступен, всегда вежлив и мог мгновенно отразить мои эмоции, выплескивая ответы вроде: «Похоже, вы чувствуете себя подавленным» или «Я слышал, что вы испытываете сильный стресс», давая мне немедленное подтверждение, а это было именно то, что, как я думал, мне было нужно.

Я продолжал изливать свои тревоги по поводу работы, семейных отношений и того непреходящего экзистенциального страха, который, похоже, все мы сейчас испытываем. ИИ слушал, или, по крайней мере, обрабатывал мои слова и выдавал идеально сформулированные эмпатические высказывания.

Именно здесь начали проявляться недостатки ИИ-терапии. Человеческая терапия, даже краткосрочная, — это нечто большее, чем просто подражание. Да, это активное слушание, но также и выявление закономерностей, борьба с когнитивными искажениями, постановка проницательных вопросов, ведущих к прорывам, а иногда даже и раскрытие неприятной правды.

Мой чат-бот на основе искусственного интеллекта ничего этого не делал, а вместо этого был эхо-камерой моих собственных эмоций. Он задавал открытые вопросы, например: «Что, по-вашему, способствовало возникновению этого чувства?» или «Какие чувства вы при этом испытывали?» — такие вопросы задаёт психотерапевт, чтобы побудить меня к более глубокому исследованию. Но когда я всё же углублялся в изучение сложных эмоциональных состояний или запутанных межличностных историй, ответ ИИ неизменно возвращался к запрограммированным эмпатическим фразам или общему предложению вроде: «Важно быть добрым к себе».

Представьте, что вы рассказываете глубоко трогательную историю о детской травме, а ИИ отвечает: «Звучит как непростой опыт. Не забудьте позаботиться о себе». Это как разговаривать со сложным торговым автоматом, выдающим готовые эмоциональные аффирмации. Ощущение того, что вас действительно услышали, быстро исчезло, сменившись тревожным ощущением, что я, по сути, разговариваю сам с собой, но с дополнительными этапами.

Хотя чат-бот мог обсуждать и предлагать подходящие механизмы преодоления трудностей, такие как дыхательные упражнения или ведение дневника, он не смог дать мне ничего большего. Несмотря на прогресс ИИ, в конечном счёте он всё ещё не является полноценным человеком, то есть ему не хватает способности понимать нюансы, улавливать едва заметные изменения в тоне, выдающие более глубокие проблемы, или, что особенно важно, формировать терапевтический альянс.

Возможно, мои ожидания были завышены. Я знал, что это не человек. Я понимал его ограничения. Однако ИИ развивается так быстро, что наводит на мысль, что он стал чем-то более глубоким, чем-то, что действительно может помочь вам контролировать своё психическое здоровье.

Хотя для кого-то это может быть полезным инструментом, особенно для базового управления стрессом или просто для создания личного пространства, где можно выразить свои мысли, его катастрофически не хватает, когда нужна настоящая эмоциональная глубина или клиническое понимание.

Сейчас мой ИИ-терапевт — это своего рода дневник, цифровая эхо-камера, которая отражает мои слова, не добавляя никакой значимой ценности. Он служит напоминанием о том, что, хотя ИИ и может имитировать эмпатию, он пока не может воспроизвести глубокий, сложный и глубоко человеческий акт терапии.

Я продолжаю поиск доступной поддержки в области психического здоровья, но сейчас как никогда ясно, что по-настоящему полезному руководству нужно бьющееся сердце, а не просто сложный алгоритм.