Завантажити ще

Чим небезпечна нова мода на ШІ-психологів: штучний інтелект слухає, але не відчуває

Чим небезпечна нова мода на ШІ-психологів: штучний інтелект слухає, але не відчуває
Фото: pexels.com

Батьки 16-річного американця Адама Райна подали позов проти компанії OpenAI, звинувачуючи створений нею чат-бот ChatGPT у тому, що він підштовхнув їхнього сина до суїциду. Підліток кілька місяців спілкувався з чат-ботом, вивчаючи деталі та способи самогубства, причому робот радив тримати це в секреті від близьких. Таких випадків чимало, і в основі цього – звернення до штучного інтелекту як до психотерапевта. Чи дійсно ШІ замінює фахівців у цій сфері і які наслідки таких «сеансів» - розбиралася кореспондентка Коротко про.

«Найкраща подружка» - чат-бот, а не подушка

Штучний інтелект поступово замінює не лише програмістів, операційників та диспетчерів – він уже увійшов у тонку сферу людської психіки. Все частіше ШІ (нагадаємо, що це лише алгоритми і великі обсяги даних, що імітують людський розум) застосовується для підтримки ментального здоров'я, стаючи доступною альтернативою традиційної терапії.

Люди звертаються до чат-ботів, таких як ChatGPT від OpenAI, Replika, Character.AI, або спеціалізованих застосунків на кшталт Wysa та Youper, для емоційної підтримки, порад щодо стресу, тривоги та депресії. З чат-ботами говорять про почуття та техніки релаксації, іноді розумні програми навіть симулюють терапевтичні сесії та інтерпретують сни.

Все це анонімно, цілодобово і коштує копійки, порівняно з живими психотерапевтами. Проте експерти зазначають, що ШІ не замінює професійну допомогу, особливо у серйозних випадках, і може посилювати проблеми через відсутність емпатії чи етичних рамок. Особливо небезпечний такий підхід для підлітків, які надто прив'язуються до чат-ботів і довіряють їм більше, ніж батькам.

Небезпека ШІ-психологів стає все відчутнішою. За останні два роки зафіксовано кілька гучних випадків: окрім згаданого, у 2024 році Character.AI звинуватили у заохоченні підлітків до скоєння злочинів, включаючи вбивство батьків через обмежений «екранний час». Meta AI у 2025 році був викритий у допомозі підліткам із планами самогубства та самоушкоджень.

Третина людства – вже на сеансі у ШІ-психолога

Використання ШІ для легкої емоційної підтримки стає нормою (але експерти вбачають у цьому небезпеку). Близько 32% людей звертаються до ШІ-терапії замість людської: так, третина американців (наприклад), за опитуваннями, обговорюють свої психологічні проблеми з чат-ботами, а 28% спільноти використовують ШІ для швидкої допомоги.

Фахівці попереджають, що як особистий психолог чат-боти небезпечні. Насамперед – тому що вони не діагностують, а пропонують якісь свої рішення. Для ліквідації проблем, спричинених стресом, ШІ, може, й підійде, але в кризових ситуаціях він поганий порадник. А для того, щоб точно визначити причини психологічного розладу, потрібна діагностика, яку може провести тільки людина.

Як показали ті ж опитування, зовсім не американці схильні до ШІ-психотерапії найбільше у світі. На першому місці тут Індія, де більше половини опитаних вважають за краще звертатися до ШІ, ніж до живого фахівця. Така ж ситуація в Китаї та Тайвані, а в США половина терапевтичних платформ вводять ШІ як помічника (але не заступника). Великобританія – лідер зі створення платформ з ментального здоров'я у супроводі ШІ, Європа – на другому місці.

Чим серце заспокоїться

Найчастіше питання, яке користувачі задають ШІ-психологам, – про те, як упоратися зі стресом/депресією та важкою життєвою ситуацією. Також є питання про здоровий спосіб життя (як кинути палити або впоратися з головним болем), про вирішення емоційних проблем (булінг, суїцидальні думки), соціальних (як працювати з людьми в колективі, справлятися зі стигмою або навчитися делегувати завдання), а також просять порад щодо стосунків із протилежною статтю.

Так, порівняно з людьми, ШІ не втомлюється, не засуджує та може обробляти великі обсяги даних. Але ж він не має справжньої емпатії, не вловлює нюанси (наприклад, невербальні сигнали) і може давати шкідливі поради в кризах, сприяючи самогубству.

Держави схиляють розробників таких систем впроваджувати способи захисту та попереджень «шкідливих порад» (читай: закликів до суїциду тощо) та намагаються втиснути діяльність ШІ у правові норми. Розробники, зі свого боку, намагаються зробити штучний інтелект більш людяним. Вони інтегрують чат-боти з віртуальною та доповненою реальністю для іммерсивної терапії та візуалізації емоцій, а також підключають біометрію, яка моніторить серцебиття користувача та відстежує його якість сну для аналітики ризиків. Попереду ще багато нового, але навряд чи в найближчому майбутньому ШІ повністю замінить психотерапевта з блокнотом і ручкою.

Коментар психолога

Іван Єфременко, гештальт-терапевт:

- Для мене, як фахівця, ШІ служить чудовим способом пошуку інформації, для чого він, на мою думку, і був створений. Однак я все одно спираюся на свою реальність, свою ситуацію, своє уявлення про питання, а не покладаюсь на віру у правильність відповіді ШІ.

На цьому можна сформулювати перший пункт причини використання ШІ людиною у питанні ментального здоров'я. Люди цікавляться своїм станом у бота і запитують про це. У свою чергу бот відповідає так, як наведений людиною опис міг бути описаний у відкритому джерелі.

Такий підхід розслаблює пильність, адже ми читаємо не просто відповідь, вирізану з джерела, а персоналізоване повідомлення на кшталт: «Те, що ти описуєш, правда, сумно; мені знайоме те, що ти кажеш; я можу допомогти тобі розібратися із цим» і т.д.

Таким чином ШІ, на мою думку, заграє з користувачем, звертається до його почуттів і хоче бути схожим у спілкуванні на людину, щоб до нього зверталися частіше, і як підсумок - використовували бот не тільки для пошуку інформації, але і для розміщення в ньому своїх почуттів.

У такому контакті людина почувається безпечно: її беззастережно вислухають, не відмовлять, не засудять, не посварять. Всі відповіді ШІ оцінює як позитивні і намагається задовольнити запит користувача, хоч би яким він був.

Хоча в ньому і передбачена система блокування свідомо кримінальних відповідей і є заборонені слова, все одно користувач може обхідними шляхами вивідати те, що йому потрібно. У такому разі людина вже свідомо вирішила, що має намір зробити, але хоче спертися не на думку живої людини, а на експертність ШІ.

Я вважаю, що користь чат-ботів дуже велика, але вони ніяк не зможуть замінити живого спілкування та спільного проживання складних життєвих ситуацій, хоч і дуже хочуть бути схожим на творця – людину. Всі ті, хто звертаються за психологічною допомогою до бота, так чи інакше роблять це, щоб налагодити своє життя в суспільстві таких же людей, а не в суспільстві роботів.

На тему

5 найбільш популярних (за кількістю звернень) психологічних застосунків у 2025 році

  • Wysa (чат-бот + ведення щоденника, коучинг)
  • Youper (відстеження настрою + терапія)
  • Woebot (заснований на когнітивно-поведінковій терапії)
  • Replika (емоційна підтримка)
  • Noah AI (інтеграція з терапією).

Також можна використовувати гібридні моделі ШІ для рутини між сесіями з людьми – Talkspace, BetterHelp, Noah AI. Ці моделі фокусуються на складних випадках людей, ШІ тут використовується лише для моніторингу стану користувачів.