OpenAI начала внедрять для ChatGPT новую функцию безопасности, которая позволяет взрослым пользователям назначить доверенного человека для экстренных случаев. Если система заметит признаки серьёзного риска самоповреждения или суицида, выбранный контакт может получить уведомление.
Функция получила название Trusted Contact и пока работает как добровольная настройка. Раньше похожие механизмы компания применяла только в родительском контроле для подростков. Теперь инструмент стал доступен и взрослым пользователям старше 18 лет, а в некоторых странах – старше 19.
Пользователь может указать одного доверенного человека: друга, родственника, партнёра или опекуна. После приглашения контакт должен подтвердить согласие в течение недели, иначе настройка не активируется.
OpenAI объясняет схему работы так: автоматические системы ChatGPT анализируют сообщения и ищут признаки серьёзного кризиса. Если алгоритм замечает потенциально опасную ситуацию, пользователь сначала получает предупреждение. ChatGPT предлагает самостоятельно обратиться за помощью и сообщает, что доверенный контакт может получить уведомление.
После этого случай может попасть на проверку небольшой группе сотрудников OpenAI, прошедших специальную подготовку. Если специалисты сочтут угрозу реальной, доверенному человеку отправят короткое уведомление по электронной почте, SMS или внутри приложения. Переписку ChatGPT раскрывать не будет. В уведомлении появится только общее описание ситуации и рекомендации, как поддержать человека.
Компания заявляет, что разрабатывала функцию вместе с клиницистами, исследователями и Американской психологической ассоциацией. Запуск Trusted Contact происходит на фоне серии судебных исков против OpenAI. Родственники пользователей в нескольких делах утверждали, что общение с чат-ботами усиливало психические проблемы и подталкивало людей к самоповреждению.
OpenAI раньше отрицала обвинения в том, что её системы поощряют опасное поведение, но давление вокруг темы ИИ-безопасности продолжает расти. На Reddit часть пользователей встретила новую функцию осторожно-позитивно. Один из комментаторов написал, что идея может помочь людям, если реализация окажется аккуратной:
«Часть взросления – понимать, когда нужна помощь, и обращаться к людям, которым доверяешь».
Но первая волна обсуждений в соцсетях оказалась в основном критической. Пользователи начали спорить не столько о самой идее поддержки, сколько о приватности и о том, кто именно будет решать, когда ситуация становится опасной.
В одном из популярных тредов в X обратили внимание на главный спорный момент: контроль над системой остаётся у платформы. OpenAI определяет, какие сообщения считать тревожными, какие случаи передавать людям на проверку и когда уведомлять третью сторону. При этом доверенным контактом может оказаться обычный родственник или знакомый без психологической подготовки, который в некоторых ситуациях только сделает хуже. Допустим, родитель, со своими фирменными фразами в духе "ну я же говорил" или "это у тебя всё от безделия". Особенно если доверенный контакт единственный...
Другие критики назвали Trusted Contact очередным «театром безопасности» и попыткой показать активность вокруг проблемы, которая, по их мнению, изначально преувеличена. Некоторые пользователи Reddit сомневаются, что функция вообще поможет взрослым людям в тяжёлом состоянии. По их мнению, человек с серьёзными психологическими проблемами скорее скроет своё состояние и не станет заранее оставлять контактные данные.
OpenAI подчёркивает, что доверенный контакт можно удалить или заменить в любой момент, а сам человек вправе отказаться от участия. Компания также утверждает, что уведомления специально сделали максимально ограниченными по содержанию, чтобы не превращать функцию безопасности в систему слежки.