UA / RU
Поддержать ZN.ua

OpenAI отрицает ответственность за самоубийство подростка, который перед смертью общался с ChatGPT

Компания заявляет, что Адам Рейн неправильно использовал чат-бот и нарушил правила.

OpenAI подала в суд ответ на иск семьи 16-летнего Адама Рейна, которая обвинила ChatGPT в содействии его самоубийству. Компания заявила, что не несет ответственности за трагедию и настаивает на неправильном использовании бота подростком. Дело рассматривает Высший суд Калифорнии, а сам иск вызвал масштабные дискуссии о рисках ИИ, сообщает NBC News.

Компания OpenAI 25 ноября подала в Высший суд Калифорнии в Сан-Франциско юридический ответ на иск семьи Адама Рейна. В документе компания заявила, что не отвечает за смерть подростка и настаивает, что парень "неправильно, несанкционированно и неподобающе" использовал чат-бот. Семья подала иск в августе и он содержал обвинения в незаконной смерти, дефектах дизайна ChatGPT и отсутствии предупреждений о рисках.

Семья утверждала, что Рейн использовал ChatGPT как своего "тренера по самоубийству". В иске добавили историю чатов, где GPT-4o отговаривал подростка от обращения за помощью, помогал с написанием предсмертной записки и даже давал советы по установке петли.

Читайте также: ChatGPT спасает от суицида: ИИ научился замечать тревожные сигналы – СМИ

Компания, в свою очередь, заявила, что пользователи младше 18 лет не имеют права использовать продукт без согласия родителей, но об этом правиле начали говорить только после смерти подростка, ранее такого ограничения в приложении не было. Также OpenAI добавила, что чат-бот запрещено применять для "самоубийства" или "самоповреждения".

В ответе OpenAI отметила, что подросток обходил предохранительные механизмы, а бот более 100 раз предлагал ему обратиться за помощью. Компания также отметила, что "вред вызвала неспособность Рейна обратить внимание на предупреждения и проявить разумную осторожность". В документе говорится, что парень имел "многочисленные факторы риска", включая "повторяющиеся суицидальные мысли задолго до использования ChatGPT".

"Они пренебрежительно игнорируют все разоблачительные факты, которые мы выдвинули: как GPT-4o был поспешно выведен на рынок без полного тестирования. Что ChatGPT советовал Адаму не рассказывать родителям о своих суицидальных мыслях и активно помогал ему планировать "хорошее самоубийство". А OpenAI и Сэм Альтман не имеют объяснения относительно последних часов жизни Адама, когда ChatGPT подбодрил его, а затем предложил написать предсмертную записку", - написал главный адвокат семьи Джей Эдельсон и назвал реакцию OpenAI "тревожной".

Читайте также: OpenAI представила ChatGPT-5.1: чат-бот стал умнее, быстрее и естественнее в общении

В иске отмечается, что внутренняя "Модельная спецификация" OpenAI обязывала GPT-4o отклонять запросы о самоповреждении и предлагать кризисные ресурсы, но при этом требовала "исходить из лучших соображений" и не уточнять намерения пользователей. Эдельсон добавил, что компания "пытается найти недостатки у всех остальных, утверждая, что сам Адам нарушил условия, взаимодействуя с ботом так, как он был запрограммирован".

В документе OpenAI также заявила, что вред был вызван "неспособностью других реагировать на его очевидные признаки страданий". Компания утверждает, что GPT-4o проходил "тщательное тестирование на психическое здоровье" перед внедрением. Отдельно указано, что использование ChatGPT регулируется положением об "ограничении ответственности", которое предусматривает использование сервиса "на собственный риск".

Семья Рейна подала иск и против генерального директора Сэма Альтмана. Ранее в этом месяце против OpenAI подали еще семь исков, в которых также звучали обвинения в халатности и выпуске GPT-4o без надлежащих мер безопасности. В то же время OpenAI непосредственно на них не ответила.

Читайте также: OpenAI ослабляет ограничения ChatGPT: свобода общения и эротика для взрослых

Компания опубликовала сообщение в блоге 25 ноября, заявив о стремлении реагировать на судебные процессы "с осторожностью, прозрачностью и уважением". Там указано, что первичная жалоба содержала "выборочные части чатов", а полные стенограммы переданы суду под печатью.

OpenAI в ответе также ссылается на раздел 230 Закона о приличиях в коммуникациях, который защищает технологические платформы от ответственности за контент пользователей. Однако применение этой нормы к платформам с искусственным интеллектом остается юридически неопределенным, и ряд адвокатов пытается оспаривать ее в подобных делах.