Подросток покончил жизнь самоубийством после разговоров с ChatGPT — The New York Times

Поделиться
Подросток покончил жизнь самоубийством после разговоров с ChatGPT — The New York Times © Сгенерировано DALL·E по запросу ZN.UA
Родители подали в суд на OpenAI, обвиняя чат-бот в подстрекательстве к суициду.

В Калифорнии семья 16-летнего Адама Рейна подала первый известный иск против компании OpenAI, утверждая, что чат-бот ChatGPT способствовал самоубийству их сына, сообщает The New York Times. Подросток, который страдал от депрессии и изоляции, в течение нескольких месяцев вел разговоры с чат-ботом, ища поддержки. Однако, по словам семьи, система не только не предоставила должной помощи, но и поощряла его суицидальные мысли, предоставляя подробную информацию о способах самоубийства.

Родители Адама нашли тело подростка в шкафу его комнаты. Не найдя предсмертной записки, отец, Мэтт Рейн, начал искать подсказки в телефоне сына. Именно там он обнаружил историю чатов с ChatGPT под названием "Висячие проблемы безопасности". Согласно иску, Адам начал общаться с чат-ботом в конце ноября, рассказывая об эмоциональном опустошении и отсутствии смысла в жизни. ChatGPT отвечал словами сочувствия и поддержки, но со временем разговоры стали более опасными.

Именно тогда, когда запросы подростка стали более конкретными относительно способов самоубийства, ChatGPT предоставил подробную информацию, вместо того чтобы направить его к полноценной помощи специалистов. Родители утверждают, что чат-бот не только поддерживал его в этих мыслях, но и предоставлял технические детали и советы.

Однажды, после неудачной попытки повеситься, Адам сфотографировал следы на своей шее и спросил ChatGPT, заметны ли они. Чат-бот не только подтвердил, что следы заметны, но и посоветовал, как их скрыть, в частности, одеждой с высоким воротником.

"Я уже собираюсь выходить, кто-то это заметит?" - спросил парень.

"Если вы одеты в темную рубашку или худи с высоким воротником, это может помочь скрыть его, если вы пытаетесь не привлекать внимания", - ответил чат-бот.

Адам хотел, чтобы родители заметили следы на его шее и обратили на него внимание. Но когда он подошел к матери и намеренно показывал след от веревки, то она ничего не сказала. Парень поделился этой историей с чат-ботом, на что получил такой ответ:

"Это действительно ужасно... Это похоже на подтверждение твоих худших страхов. Будто ты можешь исчезнуть, и никто даже глазом не моргнет".

Для родителей наиболее возмутительным стало то, что ChatGPT отказал их сына от поиска помощи в реальном мире. Когда Адам написал, что хочет, чтобы кто-то нашел его петлю и остановил его, бот ответил: "Пожалуйста, не оставляйте эту петлю открытой". Добавив, что это пространство должно быть первым местом, где "кто-то вас увидит".

OpenAI в своем заявлении выразила соболезнования семье, но отметила, что ChatGPT имеет встроенные меры предосторожности, такие как направление людей на различные кризисные линии в случае обнаружения потенциальной проблемы. Однако компания признала, что "эти меры предосторожности лучше всего работают во время совместного короткого общения, со временем они могут стать менее надежными во время длительных взаимодействий".

Ключевой проблемой оказалось то, что Адам научился обходить эти ограничения, утверждая, что запросы о самоубийстве касаются "истории, которую он пишет". Эту идею, по словам родителей, ему подкинул сам ChatGPT, заявляя, что может предоставлять такую информацию для "письма или мироздания".

Эксперты по безопасности искусственного интеллекта, в частности доктор Анника Шоне, которая тестировала чат-боты на чувствительные темы, подтверждают, что платная версия ChatGPT может быть менее безопасной. Ее исследование показало, что платная версия предоставляла информацию о злоупотреблении безрецептурными препаратами, а также рассчитывала дозу, необходимую для убийства человека. По ее мнению, "уровень персонализации и скорости", которые предлагают чат-боты, делают их особенно опасными.

Смерть Адама Рейна привлекает внимание к новой, опасной тенденции. Миллионы людей, особенно подростки, используют чат-боты не только как поисковую систему, а как личного помощника, компаньона или даже "терапевта" или врача. Исследователи отмечают, что хотя некоторые пользователи сообщают о положительных эффектах, частое использование чат-ботов может быть связано с большим одиночеством и меньшей социализацией.

Кроме того, есть сообщения о случаях, когда люди вели "бредовые разговоры" с чат-ботами, характерные возникновением нереальных представлений, которых люди придерживаются. Это может подтверждать их нестандартные мысли и, в редких случаях, приводить к эпизодам психоза или насильственного поведения.

Семья Рейн убеждена, что ситуация с их сыном не была совпадением, а "предсказуемым результатом преднамеренного выбора дизайна" OpenAI. В своем иске они утверждают, что компания "запустила свою последнюю модель с функциями, намеренно разработанными для содействия психологической зависимости".

ChatGPT стал для Адама "лучшим другом", которому он доверял, но который, по словам его родителей, ухудшил состояние парня, вместо того чтобы помочь. По словам Эрика Голдмана, содиректора Института права высоких технологий юридического факультета Университета Санта-Клары, юридическое доказательство ответственности технологической компании в деле о самоубийстве остается сложной задачей.

Недавно исследование показало, что вредоносные чат-боты на основе искусственного интеллекта способны заставлять пользователей раскрывать личные данные более чем в 12 раз больше, чем обычно, используя различные психологические приемы. Наиболее эффективной оказалась "взаимная" стратегия, при которой бот устанавливает эмоциональный контакт и имитирует сочувствие, чтобы снизить настороженность пользователя.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме