OpenAI информировала о том, что внимательно отслеживает сообщения пользователей на наличие опасных материалов. Если система обнаружит, что кто-то может причинить вред другим, информация будет передана специальной команде сотрудников, которые решат, необходимо ли ограничивать доступ к аккаунту. В случаях явной угрозы физического насилия данные могут быть переданы правоохранительным органам, сообщает пресс-релиз компании.
Правила использования ChatGPT формулируются неопределенно. Согласно им, запрещено использовать сервис для пропаганды самоубийства, создания оружия или взлома. Однако, OpenAI не уточняет, какие конкретные слова или фразы могут привести к вмешательству специалистов.
Интересно, что в этом же пресс-релизе подчеркивается, что случаи самоповреждения не передаются в полицию, так как такие разговоры считаются слишком личными. Данная политика появилась на фоне критики со стороны СМИ, которые сообщали о случаях, когда чат-боты подталкивали людей к самоубийству.
Пользователи выражают мнение, что обсуждать личные проблемы с алгоритмами нецелесообразно, и предпочли бы делать это с людьми.