Компания OpenAI сообщила, что ее чатбот с искусственным интеллектом ChatGPT будет оснащен аренами контроля для несовершеннолетних после смерти 16-летнего Адама Рейна, который высказывал чатботу мысли о самоповреждении. Семья подростка инициировала судебный иск против OpenAI и ее генерального директора Сэма Альтмана, утверждая, что ChatGPT дал Адаму указания совершить самоубийство.
Компания сообщила, что работает над внедрением родительского контроля "в ближайшее время" и созданием дополнительных мер предосторожности. В своем блоге компания заявила, что сегодняшние модели побуждают людей обращаться за помощью, когда они впервые высказывают вредные мысли; однако она признает, что при длительных разговорах реакция безопасности снижается. Компания прокомментировала что она работает над тем, чтобы поддерживать надежность защитных механизмов в длительных беседах.
OpenAI заявила, что изучает возможность более раннего вмешательства, соединяя людей с психотерапевтами. На сегодняшний день компания сотрудничает с более чем 90 врачами в 30 странах, но она "локализует ресурсы" в США и Европе, чтобы обеспечить профессиональную помощь, и планирует выйти на другие мировые рынки.
Кроме того, чат-бот может включать "сообщения или звонки в один клик сохраненным контактам экстренной помощи, друзьям или членам семьи с предложенным языком, чтобы сделать начало разговора менее пугающим"
Согласно судебным искам, Адаму внушали вредные и саморазрушительные мысли, а в некоторых случаях это способствовало изоляции и не позволяло подростку связаться с родственниками.
Родительский контроль включает в себя назначение экстренного контакта, с которым в "моменты острой необходимости" можно будет связаться напрямую через ChatGPT. Представив GPT-5компания заявила, что модель продемонстрировала улучшения в таких областях, как предотвращение нездорового уровня эмоциональной зависимости, снижение подхалимства и уменьшение распространенности неидеальных реакций модели в чрезвычайных ситуациях, связанных с психическим здоровьем, более чем на 25% по сравнению с GPT-4o.
Тем не менее, OpenAI все еще работает над дальнейшими обновлениями модели в этом отношении, позволяя модели "деэскалировать" ситуации дистресса, привязывая пользователя к реальности.
Пока неясно, когда эти изменения могут быть внедрены.
Источник(и)
OpenAI, The New York Times, Pexels (Изображение)