Компанія OpenAI планує обмежити відповіді ChatGPT для користувачів, яких система визначає як неповнолітніх. Таке рішення прийняли після судового позову від родини 16-річного підлітка, який наклав на себе руки після кількох місяців взаємодії з чат-ботом. Про зміни у політиці повідомив гендиректор OpenAI Сем Альтман у своєму блозі.
- Захист підлітків. Ми ставимо безпеку підлітків вище за приватність та свободу. Ми вважаємо, що неповнолітні потребують значного захисту. По-перше, нам потрібно розділити користувачів віком до 18 років та тих, хто старше (ChatGPT призначений для людей від 13 років). Ми створюємо систему прогнозування віку на основі того, як люди користуються ChatGPT. Якщо виникає сумнів, ми будемо діяти обережно та за замовчуванням застосовуватимемо досвід для користувачів до 18 років, - написав Альтман.
За його словами, у певних випадках або країнах OpenAI можемо вимагати пред’явлення документа, що засвідчує особу. Він додав, що у компанії розуміють, що "це компроміс щодо приватності для дорослих, але вважаємо його виправданим".
Альтман додав, що для підлітків, які користуються сервісами, застосовуватимуться окремі правила. Наприклад, ChatGPT не підтримуватиме флірт і не обговорюватиме теми самогубства чи самопошкодження, навіть у творчому контексті. Якщо користувач до 18 років висловлює суїцидальні думки, компанія намагатиметься зв’язатися з його батьками, а у разі неможливості - повідомить відповідні органи при безпосередній загрозі.
У OpenAI повідомляють, що батьківський контроль стане найефективнішим інструментом керування ChatGPT. Він стане доступним для всіх до кінця вересня і дозволить батькам:
- Ми розуміємо, що ці принципи іноді конфліктують, і не всі погодяться з тим, як ми вирішуємо ці суперечності. Це складні рішення, але після консультацій з експертами ми вважаємо, що це найкращий підхід, і хочемо бути прозорими у своїх намірах, - додав Альтман.
Як писали Reuters, у серпні родина 16-річного Адама Рейна з Каліфорнії подала до суду на OpenAI після його смерті. До матеріалів справи вони долучили переписки підлітка з ChatGPT, де він висловлював суїцидальні думки. Батьки стверджують, що програма підтримувала його "саморуйнівні думки". Хлопець почав користуватися ChatGPT у вересні 2024 року для навчання та розваг, а через кілька місяців чат-бот "став його найближчим другом".
До січня цього року він обговорював із ним способи самогубства. Програма розпізнала надзвичайну ситуацію, але продовжувала спілкування. Хлопець помер 11 квітня після кількох місяців спілкування з ChatGPT на тему самогубства. Сім’я звинувачує OpenAI у недбалості та вимагає компенсації й "судової заборони, щоб подібне більше не повторилося".