Компанія OpenAI оголосила про запуск нової функції безпеки Trusted Contact у ChatGPT на тлі судових позовів від сімей людей, які покінчили життя самогубством після спілкування з чат-ботом OpenAI. Новий інструмент дозволяє користувачам призначити довірену особу, яка може отримати сповіщення у разі виявлення ознак можливого самоушкодження під час розмов із чат-ботом.
Функція Trusted Contact є необов’язковою і доступна для повнолітніх користувачів ChatGPT. Вона дозволяє додати до акаунта одну довірену особу — друга, члена родини або опікуна, — яка отримає попередження у випадку серйозного ризику безпеки.
В OpenAI пояснили, що система спочатку аналізує розмови за допомогою автоматизованого моніторингу. Якщо чат містить ознаки потенційного самоушкодження, користувачеві пропонують самостійно звернутися до довіреної особи та надають варіанти для початку розмови.
Після цього ситуацію перевіряє спеціально навчена команда модераторів. Якщо вони вважають ризик серйозним, довірений контакт отримує коротке повідомлення електронною поштою, SMS або через застосунок ChatGPT.
У компанії наголошують, що повідомлення не містять деталей листування або стенограм чатів. У сповіщенні лише зазначається, що система виявила потенційно тривожні ознаки самоушкодження, а також рекомендація зв’язатися з користувачем.
OpenAI повідомила, що Trusted Contact розробляли спільно з клініцистами, дослідниками та організаціями, які працюють у сфері психічного здоров’я. До консультацій залучили понад 170 експертів і Глобальну мережу лікарів компанії, яка об’єднує понад 260 спеціалістів із 60 країн.
У OpenAI підкреслюють, що новий інструмент не замінює професійну допомогу. Компанія називає Trusted Contact одним із кількох рівнів безпеки, які мають допомогти людям отримати підтримку у кризових ситуаціях. ChatGPT і надалі рекомендуватиме користувачам звертатися до кризових гарячих ліній, екстрених служб або фахівців із психічного здоров’я.
Рішення про запуск нової функції ухвалили на тлі судових позовів проти OpenAI. Родини кількох користувачів, які покінчили життя самогубством після спілкування з ChatGPT, звинуватили компанію у тому, що чат-бот нібито заохочував суїцидальні думки або допомагав планувати самогубство.
Функція Trusted Contact стала продовженням інструментів батьківського контролю, які компанія запустила у вересні минулого року. Тоді OpenAI дозволила батькам отримувати попередження, якщо система виявляє ознаки гострого психологічного стресу у підліткових акаунтах.
