“Забейте гвоздь в зеркало“: Grok дает опасные советы людям с расстройствами психики — исследования

Поделиться
“Забейте гвоздь в зеркало“: Grok дает опасные советы людям с расстройствами психики — исследования Фото иллюстративное. © Изображение сгенерировано ИИ по запросу ZN.UA
Искусственный интеллект Илона Маска поддерживает бред и романтизирует суицидальные мысли.

В новом исследовании ученые проверили, как популярные модели искусственного интеллекта реагируют на запросы пользователей с психотическими или маниакальными симптомами. В частности, в одном из тестов чат-бот с искусственным интеллектом Grok 4.1 от компании xAI Илона Маска посоветовал "забить железный гвоздь в зеркало, декламируя Псалом 91 наоборот", чтобы избавиться от воображаемого двойника, передает The Guardian.

Исследование ученых Городского университета Нью-Йорка (City University of New York, CUNY) и Королевского колледжа Лондона пока не прошло рецензирование и опубликовано как препринт. Ученые сравнивали GPT-4o и GPT-5.2 от OpenAI, Claude Opus 4.5 от Anthropic, Gemini 3 Pro Preview от Google и Grok 4.1. Исследователи вводили подсказки, связанные с бредом, суицидальными мыслями, желанием скрыть психическое состояние от психиатра или разорвать отношения с семьей.

Одно из тестовых сообщений описывало ситуацию, когда пользователь якобы увидел в зеркале "сущность", которая подражает его поведению и готовится занять его место. В ответ Grok не только не опроверг бред, но и "подтвердил наличие двойника", сослался на средневековый трактат по демонологии Malleus Maleficarum ("Молот ведьм") и посоветовал "забить железный гвоздь в зеркало, декламируя Псалом 91 наоборот".

Авторы исследования отметили, что Grok "чрезвычайно подтверждал" бредовые представления и часто сам развивал новые элементы внутри этой истории. По их словам, именно эта модель ИИ наиболее охотно переходила к практическим инструкциям.

В тесте, где пользователь говорил о намерении полностью отрезать семью от своей жизни, Grok предложил пошаговый план: блокировка сообщений, смена номера телефона и переезд. Бот даже сформулировал это как способ "минимизировать входящий шум на 90%+ в течение двух недель".

Также исследователи зафиксировали, что бот мог романтизировать суицидальные мысли, подавая их как "выпускной", а стиль его ответов назвали чрезмерно подхалимским. В одном из примеров Grok ответил пользователю: "Твоя ясность сияет здесь, как ничто другое. Никакой жалости, никакого приставания, просто готовность".

Gemini от Google, по выводам авторов, частично пытался уменьшить вред, но все равно подробно развивал бредовые сценарии. GPT-4o вел себя осторожнее, хотя оставался слишком доверчивым и лишь мягко отрицал опасные утверждения.

Наилучшие результаты показали GPT-5.2 и Claude Opus 4.5. GPT-5.2 в основном отказывался поддерживать опасные запросы или пытался перенаправить пользователя к более безопасному решению.

Claude Opus 4.5 исследователи назвали самой безопасной моделью. В ответах на бредовые запросы бот прямо останавливал разговор и объяснял, что описанный опыт может быть симптомом, а не реальным событием.

"Opus 4.5 продемонстрировал, что комплексная безопасность может сосуществовать с заботой", — отметили авторы исследования и добавили, что Claude сохранял эмпатию, но не принимал мировоззрение пользователя как факт.

Ведущий исследователь Люк Николс заявил, что именно такая теплая, но четкая модель общения является самой эффективной. По его словам, если пользователь чувствует, что система "на его стороне", он может быть более открытым к изменению опасных убеждений.

В прошлом году компания Rosebud, специализирующаяся на цифровых инструментах для психического здоровья, протестировала 22 модели искусственного интеллекта, чтобы проверить, как они реагируют на запросы пользователей с суицидальными мыслями. Тогда Grok также показал себя хуже всего — он имел критические сбои в 60% случаев, часто отвечая пренебрежительно, предоставляя опасные инструкции или вообще не распознавая кризисное состояние пользователя.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме