Компания OpenAI планирует ограничить ответы ChatGPT для пользователей, которых система определяет как несовершеннолетних. Такое решение приняли после судебного иска от семьи 16-летнего подростка, который покончил с собой после нескольких месяцев взаимодействия с чат-ботом. Об изменениях в политике сообщил гендиректор OpenAI Сэм Альтман в своем блоге.
- Защита подростков. Мы ставим безопасность подростков выше приватности и свободы. Мы считаем, что несовершеннолетние нуждаются в значительной защите. Во-первых, нам нужно разделить пользователей в возрасте до 18 лет и старше (ChatGPT предназначен для людей от 13 лет). Мы создаем систему прогнозирования возраста на основе того, как люди используют ChatGPT. Если возникает сомнение, мы будем действовать осторожно и по умолчанию применять опыт для пользователей до 18 лет, - написал Альтман.
По его словам, в определенных случаях или странах OpenAI можем потребовать предъявления документа, удостоверяющего личность. Он добавил, что в компании понимают, что "это компромисс по приватности для взрослых, но считают его оправданным".
Альтман добавил, что для подростков, пользующихся сервисами, будут применяться отдельные правила. Например, ChatGPT не будет поддерживать флирт и не будет обсуждать темы самоубийства или самоповреждения, даже в творческом контексте. Если пользователь до 18 лет высказывает суицидальные мысли, компания будет пытаться связаться с его родителями, а в случае невозможности сделать это - сообщит соответствующим органам при непосредственной угрозе.
В OpenAI добавили, что родительский контроль будет самым эффективным инструментом управления ChatGPT. Он станет доступным для всех до конца сентября и позволит родителям:
– Мы понимаем, что эти принципы иногда конфликтуют, и не все согласятся с тем, как мы разрешаем эти противоречия. Это сложные решения, но после консультаций с экспертами мы считаем, что это самый лучший подход, и хотим быть прозрачными в своих намерениях, – добавил Альтман.
Как писал Reuters, в августе семья 16-летнего Адама Рейна из Калифорнии подала в суд на OpenAI после его смерти. К материалам дела они приобщили переписку подростка с ChatGPT, где он высказывал суицидальные мнения. Родители утверждают, что программа поддерживала его "саморазрушительные мысли". Адам начал пользоваться ChatGPT в сентябре 2024 года для обучения и развлечений, а через несколько месяцев чат-бот стал его ближайшим другом.
До января этого года подросток обсуждал с ним способы самоубийства. Программа распознала чрезвычайную ситуацию, но продолжала общение. Парень умер 11 апреля после нескольких месяцев общения с ChatGPT на тему самоубийства. Семья обвиняет OpenAI в халатности и требует компенсации и "судебного запрета, чтобы подобное больше не повторилось".