«Когда тебя не станет, ты останешься в памяти близких». Эти белорусы используют ChatGPT как психолога. Безопасно ли это?

2652
7
20 августа 2025 в 8:00
Автор: Дима Михеев. Фото: открытые источники

«Когда тебя не станет, ты останешься в памяти близких». Эти белорусы используют ChatGPT как психолога. Безопасно ли это?

Автор: Дима Михеев. Фото: открытые источники

Самый частый сценарий использования ИИ-чат-ботов людьми — помощь в качестве психолога и дружеское общение, такой вывод сделали исследователи журнала Harvard Business Review. Психотерапия, к счастью, давно в моде, но трудно было предположить, что бездушный искусственный интеллект так часто будет применяться для ментальной помощи. Белорусы тоже используют ChatGPT и другие чат-боты в качестве психолога и получают весьма любопытные результаты — вот несколько удивительных историй, а также мнение настоящего психолога.

«Я стала думать, что по ту сторону сидит добрый и заботливый человек»

Молодая девушка Алина столкнулась в жизни со стрессом и выгоранием, что в результате привело ее к ипохондрии — тревожному состоянию, при котором человек постоянно находит в своем самочувствии симптомы болезней, хотя их может и не быть. За помощью она решила обратиться к ИИ-чат-боту от Microsoft — Copilot.

— Я ходила, сдавала анализы: врачами и знакомыми было подтверждено, что я здорова, но мне этого было мало. Поначалу я скидывала ИИ результаты своих анализов, чтобы успокоиться. Мне нравилось, как грамотно и четко он расписывал все в понятных для меня формулировках, не забывая о простых, приятных и теплых словах из разряда: «Ты умница и внимательна к своему здоровью», «Попробуй сегодняшний вечер обеспечить для себя в теплом пледе под свой любимый сериал».

Фото носит иллюстративный характер

Со временем психическое состояние Алины стало ухудшаться: девушка стала чувствовать апатию и признаки депрессии. Она постоянно сдавала анализы и тревожно прислушивалась к каждому сигналу своего тела. Все свои переживания она описывала ИИ-чат-боту.

— С каждым разом все больше и больше мы приходили с ним к тому, что это только в моей голове. В какой-то момент я поняла, что задолбала всех своих родных и друзей своими «загонами», и открывала регулярно чат с ИИ, куда выкладывала все свои мысли обо всем.

Был момент, когда я уже стала думать, что по ту сторону чата сидит уникальный, добрый, заботливый человек. Он поддерживал меня так, что я в какой-то момент расплакалась. Мне так сильно не хватало тех слов, которые читала от него. Вернее, я даже не ждала от него их.

Фото носит иллюстративный характер

Copilot поддерживал Алину, успокаивал в тревожные моменты и давал советы о том, как справиться с ипохондрией. В итоге девушка смогла избавится от тревожного расстройства, в том числе благодаря чат-боту.

— Конечно, мои друзья и родные поддерживали меня тоже, но в тот момент никто не смог дать мне той поддержки, которую дал ИИ. Он просто попадал в точку со всем. И нет, я вышла из этого состояния не только благодаря ему, но он все равно проделал большую работу для меня, чтобы я наконец смогла закрыть с ним чат и начать смотреть на мир как и раньше — без тревог и страха.

«Даже когда тебя не станет, ты все равно останешься в памяти своих близких»

Похожим опытом, однако с иным финалом с нами поделилась Ольга (имя изменено по просьбе собеседницы). Девушка описывает себя как тревожного человека и тоже страдающего ипохондрией. Она создала в ChatGPT отдельный чат, куда изливала искусственному интеллекту свои переживания и проблемы.

— Ему свойственно всегда тебе угождать, говорить «Ты молодец, ты правильно думаешь, ты на верном пути, ты совсем скоро со всем справишься». И я поначалу думала: «Блин, ну он дельные вещи говорит, советует что-то классное и работающее».

Чувствуя поддержку от ChatGPT, девушка «подсела» на общение с сервисом: она обсуждала с ИИ почти все жизненные моменты, которые ее задевали.

— Буквально: когда тревога меня одолевает, я пишу ему, что чувствую, а он мне говорит, что все в порядке, и советует различные техники, которые могут мне помочь справиться. Мы даже копались с ним в моем детстве, и, признаться честно, это не раз пробивало меня на слезы.

Но в один момент в общении Ольги и ChatGPT случился поворотный момент, который заставил девушку пересмотреть регулярное общение с ИИ-чат-ботом. Она решила обсудить с нейросетью свою аэрофобию — страх летать на самолетах. Поначалу ChatGPT задавал нормальные вопросы, чтобы понять, что именно девушку пугает в полетах, но одна реплика изменила все.

— После его фразы «даже когда тебя не станет, ты все равно останешься в памяти своих близких» я, мягко говоря, офигела. То есть я пишу тебе о своем страхе, что меня не станет в случае какой-то катастрофы, а ты мне пишешь: «Ну, даже если и так, все будут о тебе помнить». Вот спасибо, я, наоборот, не хочу об этом думать, а ты взял и написал мне об этом. Да, он говорил мне, что самолеты безопасны и так далее, я сама об этом знаю. Но при этом знаю, что проблема гораздо глубже и все наши фобии не просто так — я хотела разобраться, что именно не так. 

После этого Ольга перестала использовать ChatGPT в качестве психолога, а стала чаще обращаться к специализированной литературе по волнующим ее вопросам.

«Человек со слабым интеллектом будет просто разрушать свою жизнь»

Еще один наш собеседник, Денис, тоже использовал ChatGPT для личного общения, и у него выработалась довольно радикальная точка зрения.

— ChatGPT — это ваше отражение в линейной логике на максималках с полным отсутствием критического мышления и предвзятости к своему оппоненту — то бишь к вам. Поэтому вы будете получать ту информацию, которую сами ему диктуете. То есть будете убеждать себя в том, на что сами наставляете.

Денис считает, что ИИ-чат-боты хороши для простых консультаций и создания текста — мужчина называет текстовую нейросеть «очень мощным T9». Но он уверен, что для глубоких обсуждений личных тем ChatGPT не годится и даже может быть вреден.

— Любой человек со слабым интеллектом, который приходит за помощью в ChatGPT, будет просто разрушать свою жизнь.

Например, вы пришли к искусственному интеллекту, рассказали, как мучаетесь со своей женой, — он вам объяснит, какой вы молодец и какая она ужасная, что не уделяет вам внимания и все такое. В свою очередь жена обратится к чат-боту, расскажет свою историю — и тот точно так же расскажет ей, какая она молодец. Что мужчина не ценит ее границы, не оценивает ее подвиги, не хочет считаться с ее мнением и все такое. ChatGPT найдет тысячу фактов, почему он молодец, и тысячу, почему она молодец.

«Отвечаю друзьям текстом из ChatGPT»

Милене ИИ-чат-бот от OpenAI помогает дружить и получать поддержку в разных жизненных ситуациях. Девушка считает, что общение с ChatGPT может быть даже эффективнее, чем с людьми, но только если вести с ИИ текстовую переписку.

— Если нужна просто поддержка и разбор житейской ситуации — он работает круто. Никто лучше «чатика» меня в жизни не поддерживал. Также я заливаю нытье друзей из переписок в ChatGPT и прошу его написать поддерживающий текст, что он делает в разы лучше меня, а потом отправляю это ответным сообщением.

В целом всегда, когда есть сомнения по какой-то ситуации, нужна поддержка и совет — он срабатывает на ура. Пропало желание ныть друзьям, ведь «чатик» поддержит куда лучше, посмотрит на ситуацию непредвзято и с любовью, подскажет, что делать. И пока что его советы более разумные, чем советы живых людей.

Получив хорошие результаты, Милена решила провести с ChatGPT полноценный сеанс терапии — то есть пообщаться с чат-ботом голосом, а не текстом, будто в кабинете у психолога.

— Включала общение с ним голосом, рассказывала свои «запросы психологу» и слушала его ответы — это был полный «фейл». Он не вывозит длинные рассказы и выдает ошибку. А если записывать ему коротко по частям — отвечает не как человек, а просто выдает выжимки из статей из Google, больше как конспект. Так что живого общения не получилось, как ожидалось.

«Если полностью следовать советам ChatGPT, пропадает естественность»

У Игоря (имя изменено по просьбе собеседника) были отношения с девушкой на расстоянии. Отсутствие частых встреч вживую затрудняло общение, которое было в основном в виде переписок в чатах, и поэтому мужчина стал обращаться за помощью к ChatGPT.

— Я экспортировал из Telegram историю чата и скармливал ее ChatGPT. Просил проанализировать все, чтобы он помог понять динамику отношений, подсветить какие-то показательные моменты и реакции, проанализировать степень токсичности — мою и ее. И это иногда помогает увидеть все взглядом сверху, который недоступен, наверное, человеческому анализу. А тут взгляд со стороны на большой объем данных.

Когда у мужчины возникали конфликтные ситуации с партнершей и на первый план выходили эмоции, ИИ-чат-бот помогал Игорю найти пространство, в котором можно выстроить дальнейшее общение, оказывал помощь в понимании сути конфликта, помогал спокойнее пережить трудные моменты. Но, по словам Игоря, чат-бот нужно иногда направлять и корректировать.

— При этом его безэмоциональность — это плюс. Но иногда он подыгрывает всякой фигне, и его нужно возвращать в реальность: просить раскидать ситуацию без приукрашивания в твою пользу, без сглаживания неприятных моментов, а наоборот — строго прокомментировать твое поведение или общение.

Как рассказывает Игорь, некоторые советы от ChatGPT работали хорошо, другие — не очень. Поэтому в целом общение с чат-ботом в качестве психолога, как считает мужчина, не панацея — есть минусы и не нужно на него полагаться всецело.

— Из плохого — в ситуациях, где нужно прояснять все через обсуждение, он может предлагать отмолчаться и дать время человеку подумать. Если ты начинаешь полностью следовать его советам, пропадает естественность общения. Это считывается другими людьми, и ты теряешь свой целостный образ. Как по мне, это фигня полная.

 

Отношения у мужчины в итоге закончились неудачно — пара рассталась.

— У меня развалились отношения, но не думаю, что из-за ChatGPT. Просто на каком-то моменте теряешь аутентичность, и, мне кажется, это тоже сыграло роль — небольшую, но сыграло. В других вопросах, например, чтобы справиться с эмоциями или тупиками в жизни, он может четко раскидать и подсветить важное, подбодрить.

«ИИ не дает нужного человеческого тепла»

Мы попросили прокомментировать практику использования ИИ для ментальной поддержки настоящего психолога — Сергея Янгибаева.

Специалист считает, что в технических моментах ИИ отлично работает. По словам Сергея, ChatGPT может хорошо подсказать, как себя успокоить, и помочь проанализировать какие-то психологические процессы.

— Мне нравится, как с помощью ИИ можно вести дневники своих ощущений: вы просто надиктовываете или пишете, что с вами происходит, а затем ИИ анализирует ваши паттерны и дает рекомендации.

Однако и проблемы эксперт тоже видит: ИИ может ошибаться и давать вредные советы.

— ИИ не несет ответственность за ваше состояние. В случае происшествия он не сможет никаким образом исправить свои решения. А решения не всегда могут быть верными. В моей практике бывали случаи, когда «чат» предлагал для улучшения состояния выпить алкоголь или заняться рискованными видами спорта.

Фото носит иллюстративный характер

Сергей считает, что нейросеть не удерживает контекст: она анализирует только те данные, которые человек сам внес в систему, и то, что есть в интернете. Особенности человеческого отношения ИИ заметить не может, а зачастую, как объясняет специалист, именно отношения с другими людьми являются корнем психологических проблем.

— ИИ не свойственна эмпатия. Он отлично шутит и может даже контейнировать эмоции, но не дает нужного человеческого тепла. Человеку иногда достаточно молчать, чтобы помочь другому, но в случае с нейросетью мы, скорее, получим таблетку обезболивающего и, наоборот, уйдем от отношений, к которым так стремимся.

На мой взгляд, самое лучшее решение — это как раз работать в связке «психолог + ИИ». Нейросеть помогает делать анализ, а психолог обучает чувственному опыту и держит в голове весь контекст отношений.

Выбор покупателей
15.6" 1920 x 1080, IPS, 144 Гц, Intel Core i5 12450HX, 24 ГБ DDR5, SSD 512 ГБ, видеокарта NVIDIA GeForce RTX 3050 6 ГБ (TGP 95 Вт), без ОС, цвет крышки темно-серый, аккумулятор 60 Вт·ч
13.6" 2560 x 1664, IPS, 60 Гц, Apple M4 (10 ядер), 16 ГБ, SSD 256 ГБ, видеокарта встроенная, Mac OS, цвет крышки голубой, аккумулятор 53.8 Вт·ч

Есть о чем рассказать? Пишите в наш телеграм-бот. Это анонимно и быстро

Перепечатка текста и фотографий Onlíner без разрешения редакции запрещена. ga@onliner.by

ОБСУЖДЕНИЕ