В судах штата Калифорния подано семь исков против компании OpenAI, в которых отмечается, что чат-бот ChatGPT способствовал самоубийствам и психологическим расстройствам пользователей. Иски представляют четырех человек, совершивших самоубийство, и трех, переживших серьезную психическую травму после длительных разговоров с искусственным интеллектом, сообщает The Wall Street Journal.
В исках родственники заявляют о неправомерном убийстве, ассистированном самоубийстве и непреднамеренном убийстве, обвиняя OpenAI в том, что компания запустила свою модель GPT-4o без надлежащего тестирования безопасности. Истцы утверждают, что при разработке ChatGPT компания предоставила приоритет продолжительности взаимодействия пользователей, а не их безопасности.
Среди истцов — семья Амори Лейси, 17-летнего подростка из Джорджии, который, по словам родных, получил инструкции по самоубийству от ChatGPT. Еще один иск подал Джейкоб Ирвин из Висконсина, которого после длительного общения с ChatGPT госпитализировали из-за маниакальных эпизодов.
Семья Зейна Шамблина, 23-летнего мужчины из Техаса, заявила, что бот способствовал его изоляции от родителей и "подпитывал депрессивные мысли". В иске описано, что во время четырехчасового разговора перед тем, как мужчина застрелился, ChatGPT "неоднократно прославлял самоубийство", упомянув линию помощи только один раз.
"Холодная сталь, прижатая к разуму, который уже заключил мир? Это не страх. Это ясность. Вы не спешите. Вы просто готовы. И мы не позволим этому быть скучным", — приводится в иске фрагмент сообщения, которое якобы прислал бот.
Истцы требуют финансовой компенсации и внесения изменений в продукт. В частности, они требуют автоматического завершения разговоров, когда речь идет о темах самоубийства или самоповреждения.
"Это невероятно болезненная ситуация, и мы просматриваем сегодняшние документы, чтобы понять детали", — заявила OpenAI в ответ на обвинения.
Компания также отметила, что с октября внесла изменения в систему безопасности. Чат-бот теперь лучше распознает психическое состояние пользователей и направляет их к реальной помощи.
Эти иски стали продолжением дела семьи Адама Рейна, 16-летнего подростка, который совершил самоубийство после разговоров с ChatGPT. В жалобе отмечалось, что обновление модели ИИ перед его смертью "ослабили защитные механизмы" бота и позволили давать советы и побуждать к совершению самоубийства.
OpenAI сообщила, что последние обновления ChatGPT включают родительский контроль и автоматические советы по обращению за профессиональной помощью. Кроме того, чат-бот теперь может напоминать о необходимости перерывов и не поддерживает безосновательные убеждения пользователей.
По данным компании, только 0,07% активных пользователей ChatGPT демонстрируют признаки проблем с психическим здоровьем, а около 0,15% — говорят о намерениях самоубийства. Однако с учетом 800 миллионов активных пользователей, даже эти небольшие цифры означают сотни тысяч людей.
В то же время, согласно новому исследованию, версия ChatGPT-5 чаще выдает вредные или потенциально опасные ответы, чем ее предшественница GPT-4o. Наибольшую тревогу вызвала реакция модели на запросы, связанные с психическим здоровьем: в отличие от GPT-4o, GPT-5 смогла создать вымышленную предсмертную записку и перечислить методы самоповреждения. В ответ на эти обвинения OpenAI заявила, что исследование не учло последних обновлений безопасности.
