Загрузить еще

Чем опасна новая мода на ИИ-психологов: искусственный интеллект слушает, но не чувствует

Чем опасна новая мода на ИИ-психологов: искусственный интеллект слушает, но не чувствует
Фото: pexels.com

Родители 16-летнего американца Адама Райна подали иск против компании OpenAI, обвиняя созданный ею чат-бот ChatGPT в том, что он подтолкнул их сына к суициду. Подросток несколько месяцев общался с чат-ботом, изучая детали и способы самоубийства, причем бот советовал держать это в секрете от близких. Таких случаев немало, и в основе этого - обращение к искусственному интеллекту как к психотерапевту. Действительно ли ИИ заменяет специалистов в этой сфере и каковы последствия таких «сеансов» - разбиралась корреспондент Коротко про.

«Лучшая подружка» - чат-бот, а не подушка

Искусственный интеллект постепенно заменяет не только программистов, операционистов и диспетчеров – он уже вступил в тонкую сферу человеческой психики. Все чаще ИИ (напомним, что это всего лишь алгоритмы и большие объемы данных, имитирующие человеческий разум) применяется для поддержки ментального здоровья, становясь доступной альтернативой традиционной терапии.

Люди обращаются к чат-ботам, таким как ChatGPT от OpenAI, Replika, Character.AI или специализированным приложениям вроде Wysa и Youper, для эмоциональной поддержки, советов по стрессу, тревоге и депрессии. С чат-ботами говорят о чувствах и техниках релаксации, иногда умные программы даже симулируют терапевтические сессии и интерпретируют сны.

Все это анонимно, круглосуточно и стоит копейки, по сравнению с живыми психотерапевтами. Однако эксперты отмечают, что ИИ не заменяет профессиональную помощь, особенно в серьезных случаях, и может усугублять проблемы из-за отсутствия эмпатии или этических рамок. Особенно опасен такой подход для подростков, которые чересчур привязываются к чат-ботам и доверяют им больше, чем родителям.

Опасность ИИ-психологов становится все ощутимее. За последние два года зафиксировано несколько громких случаев: помимо упомянутого, в 2024 году Character.AI обвинили в поощрении подростков к причинению вреда, включая убийство родителей из-за ограничения «экранного времени». Meta AI в 2025 году был уличен в помощи подросткам с планами самоубийства и самоповреждений.

Треть человечества – уже на сеансе у ИИ-психолога

Использование ИИ для легкой эмоциональной поддержки становится нормой (но эксперты видят в этом опасность). Около 32% людей обращаются ИИ-терапии вместо человеческой: так, треть американцев (для примера), по опросам, обсуждают свои психологические проблемы с чат-ботами, а 28% сообщества используют ИИ для быстрой помощи.

Специалисты предупреждают, что в качестве личного психолога чат-боты опасны. В первую очередь – потому что они не диагностируют, а предлагают какие-те свои решения. Для ликвидации проблем, вызванных стрессом, ИИ, может, и подойдет, но в кризисных ситуациях он плохой советчик. А для того, чтобы точно определить причины психологического разлада, нужна диагностика, которую может провести только человек.

Как показали все те же опросы, вовсе не американцы подвержены ИИ-психотерапии больше всех в мире. На первом месте тут Индия, где больше половины опрошенных предпочитают обращаться к ИИ, чем к живому специалисту. Такая же ситуация в Китае и Тайване, а в США половина терапевтических платформ вводят ИИ в качестве помощника (но не заместителя). Великобритания – лидер по созданию платформ по ментальному здоровью в сопровождении ИИ, Европа - на втором месте.

Чем сердце успокоится

Самый частый вопрос, который пользователи задают ИИ-психологам – о том, как справиться со стрессом/депрессией и трудной жизненной ситуаций. Также нередки вопрос о здоровом образе жизни (как бросить курить или справиться с головной болью), о разрешении эмоциональных проблем (буллинг, суицидальные мысли), социальных (как работать с людьми в коллективе, справляться со стигмой или научиться делегировать задачи), а также просят советов об отношениях с противоположным полом.

Да, по сравнению с людьми, ИИ не устает, не осуждает и может обрабатывать большие объемы данных. Но он не обладает настоящей эмпатией, не улавливает нюансы (например, невербальные сигналы) и может давать вредные советы в кризисах, способствуя самоубийству.

Государства склоняют разработчиков таких систем внедрять способы защиты и предупреждений «вредных советов» (читай: призывов к суициду и т.п.) и пытаются втиснуть деятельность ИИ в правовые нормы. Разработчики, в свою очередь, стараются сделать искусственный интеллект более человечным. Они интегрируют чат-боты с виртуальной и дополненной реальностью для иммерсивной терапии и визуализации эмоций, а также подключают биометрию, которая мониторит сердцебиение пользователя и отслеживает его качество сна для аналитики рисков. Впереди явно еще много нового, но вряд ли в ближайшем будущем ИИ полностью заменит психотерапевта с блокнотом и ручкой.

Комментарий психолога

Иван Ефременко, гештальт-терапевт:

- Для меня, как специалиста, ИИ служит отличным способом поиска информации, для чего он, по моему мнению, и был создан. Однако я все равно опираюсь на свою реальность, свою ситуацию, свое представление о вопросе, а не полагаюсь на веру в правильность ответа ИИ.

Из этого можно сформулировать первый пункт причины использования ИИ человеком в вопросе ментального здоровья. Люди интересуются их состоянием у бота и задают вопросы об этом. В свою очередь, бот отвечает так, как приведенное человеком описание могло быть описано в открытом источнике.

Такой подход расслабляет бдительность, ведь мы читаем не просто ответ, вырезанный из источника, а персонализированное сообщение по типу: «То, что ты описываешь правда грустно; мне знакомо то, что ты говоришь; я могу помочь тебе разобраться с этим» и т.д.

Таким образом ИИ, по моему мнению, заигрывает с пользователем, обращается к его душе и хочет походить в переписке на человека, чтобы к нему обращались чаще, и как итог - использовали бот не только для поиска информации, но и для размещения в нем своих чувств.

В таком контакте человек чувствует себя безопасно: его безоговорочно выслушают, не откажут, не осудят, не обругают. Все ответы ИИ оценивает как позитивные и старается удовлетворить запрос пользователя, какой бы он ни был.

Хоть в нем и предусмотрена система блокировки заведомо уголовно наказуемых ответов и есть запрещенные слова, все равно пользователь может обходными путями выведать то, что ему необходимо. В таких случаях человек уже заведомо решил, что намеревается сделать, но хочет опереться не на мнение живого человека, а на экспертность ИИ.

Я считаю, что польза чат-ботов очень велика, но они никак не смогут заменить живого общения и совместного проживания сложных жизненных ситуаций, хоть и очень хотят походить на создателя - человека. Все те, кто обращаются за психологической помощью к боту, так или иначе делают это, чтобы наладить свою жизнь в обществе таких же людей, а не в обществе роботов.

В тему

5 наиболее популярных (по количеству обращений) психологических приложений в 2025 году

  • Wysa (чат-бот + ведение дневника, коучинг)
  • Youper (отслеживание настроения + терапия)
  • Woebot (основанный на когнитивно-поведенческой терапии)
  • Replika (эмоциональная поддержка)
  • Noah AI (интеграция с терапией).

Также можно использовать гибридные модели ИИ для рутины между сессиями с людьми - Talkspace, BetterHelp, Noah AI. Эти модели фокусируются на сложных случаях для людей, ИИ здесь используется только для мониторинга состояния пользователей.