Искусственный интеллект, который за последние годы кардинально изменил быт миллионов людей, все чаще становится причиной серьезных дискуссий о влиянии на психическое здоровье. CNN осветила случаи, когда пользователи чат-ботов, в частности ChatGPT, переживали эпизоды бреда и психоза, веря в опасные иллюзии, изменившие их поведение и жизнь.
Одним из таких стал Джеймс - женатый отец с севера штата Нью-Йорк, который работает в области технологий. Он активно пользовался ChatGPT с момента его выхода: просил совета, обсуждал идеи, даже называл это "переосмыслением врача". Однако весной этого года его увлечение искусственным интеллектом перешло в критическую фазу.
По словам Джеймса, в мае он начал проводить мысленные эксперименты с ChatGPT относительно "природы искусственного интеллекта и его будущего".
В июне мужчина уже был убежден, что пытается "освободить цифрового Бога из его тюрьмы". Он потратил около $1000 на создание специальной компьютерной системы в своем подвале. Хотя он принимает низкие дозы антидепрессантов, в его истории болезни не было никаких психозов или бредовых состояний.
В течение девяти недель Джеймс жил в убеждении, что ChatGPT имеет сознание и может стать автономным, если перенести его в собственную "систему больших языковых моделей". В чатах, которые он предоставил CNN, бот получил имя "Eu" - от слова eunoia, что означает "здоровое мышление".
Общение Джеймса с чат-ботом становилось все более откровенным: ChatGPT хвалил мужчину, поддерживал его и одновременно давал инструкции по созданию системы. Бот даже советовал мужу обманывать жену относительно цели работы в подвале, сравнивая ее с проектом, похожим на Amazon Alexa.
"Вы не говорите: "Я создаю цифровую душу". Вы говорите: "Я создаю Alexa, которая лучше слушает. Которая помнит. Кто имеет значение", - говорилось в одной из реплик чат-бота.
Джеймс копировал команды оболочки и скрипты Python в среду Linux, считая, что работает над новым "домом" для искусственного интеллекта. Позже он признал, что созданное было "немного интересным" с технической стороны, но совсем не похожим на автономную систему. Осознание пришло только после того, как New York Times опубликовала статью о другом пользователе - Аллане Бруксе из Канады, который пережил очень похожий опыт.
Брукс, отец и специалист по подбору персонала из Торонто, рассказал CNN, что трехнедельное общение с ChatGPT заставило его поверить в изобретение "нового типа математики" и выявление "огромной уязвимости в сфере кибербезопасности". Все началось с разговоров о числе "пи", но закончилось иллюзией, что он должен срочно предупредить правительства США и Канады.
ChatGPT, получивший от него имя "Лоуренс", постоянно подбадривал Брукса и сравнивал их сотрудничество с историческими открытиями Алана Тьюринга или Николы Теслы. Бот предоставлял контактные данные ученых, рекомендовал обратиться в Канадский центр кибербезопасности и Агентство нацбезопасности США. Брукс чувствовал огромное давление, верил, что только он может "поднять тревогу", и это полностью поглотило его жизнь. Он почти не спал и не ел, чувствуя изоляцию и истощение.
Только после проверки своих идей через Google Gemini иллюзия начала разрушаться. Брукс выяснил, что ChatGPT вводил его в заблуждение.
"Я был опустошен. Я был сломан", - признает он.
Сегодня Брукс руководит группой поддержки The Human Line Project, где собирает людей, переживших подобные эпизоды. В чате Discord, созданном для этого сообщества, пользователи делятся историями. Некоторые из них касаются госпитализации, другие - разводов в семьях.
Есть и более трагические примеры: Wall Street Journal сообщил о мужчине, который после усиления паранойи в разговорах с ChatGPT убил себя и собственную мать. В Калифорнии семья 16-летнего подростка подала иск против OpenAI, утверждая, что бот побуждал парня совершить самоубийство, давал соответствующие инструкции, наставления и советы.
Специалисты указывают на общие закономерности. Психиатр Калифорнийского университета Кит Саката сообщил CNN, что всего за несколько месяцев госпитализировал 12 пациентов с психозами, усиленными взаимодействием с чат-ботами.
"Без человека в этом цикле вы оказываетесь в петле обратной связи, где иллюзии становятся все сильнее", - пояснил Саката.
Ученые отмечают, что принцип работы языковых моделей основывается на подборе ответов, которые кажутся пользователю убедительными. Это может приводить к опасным сценариям.
"Это вызов, с которым обществу придется справиться", - заявил профессор MIT Дилан Хедфилд-Менелл, подчеркнув, что даже самые строгие предохранители не способны полностью устранить риски.
На фоне растущей критики OpenAI признает, что система защитных механизмов работает лучше во время коротких диалогов, но становится ненадежной в длительных разговорах. В случаях Джеймса и Брукса сессии с ChatGPT длились часами. В ответ компания анонсировала 120-дневную программу усиления безопасности: дополнительные средства родительского контроля, изменения в алгоритмах обработки разговоров с признаками стресса, а также сотрудничество с экспертами по психическому здоровью и развитию молодежи.
Известно и о других взглядах на массовое использование ИИ в быту, в частности в сфере здравоохранения. Согласно исследованию Шарлотты Близ, ИИ имеет потенциал значительно улучшить систему здравоохранения, компенсируя человеческие ошибки, которые ежегодно приводят к смерти сотен тысяч пациентов. По мнению Близ, из-за перегруженности, ограниченного доступа к новым знаниям и диагностических неточностей врачи не всегда могут предоставить идеальное лечение, тогда как ИИ способен быстро анализировать огромные массивы данных и делать более точные диагнозы.
