Психотерапевты и психиатры в Великобритании предупреждают об опасности растущей популярности чат-ботов с искусственным интеллектом среди людей, которые ищут поддержки для психического здоровья. По мнению специалистов, использование таких инструментов может привести к эмоциональной зависимости, усилению симптомов тревожности, ложной самодиагностики и даже смерти вследствие углубления суицидальных намерений, сообщает The Guardian.
По словам доктора Лизы Моррисон Коултхард, директора по профессиональным стандартам, политике и исследованиям Британской ассоциации консультирования и психотерапии, в недавнем опросе две трети членов организации выразили обеспокоенность использованием ИИ в терапии. Она подчеркнула, что "без надлежащего понимания и надзора мы можем скатиться в опасную пропасть, где ключевые элементы терапии теряются, а уязвимые люди остаются без защиты".
Доктор Пол Брэдли из Королевского колледжа психиатров отметил, что чат-боты не могут заменить ни профессиональную помощь, ни терапевтические отношения, необходимые для выздоровления пациентов. Он призвал к введению государственных стандартов безопасности для цифровых инструментов и увеличению финансирования психического здоровья, подчеркнув, что нынешние технологии часто работают вне системы клинической оценки.
Компании также начинают реагировать на критику. OpenAI, разработчик ChatGPT, на этой неделе объявила об изменениях в алгоритмах реагирования на пользователей, которые демонстрируют признаки эмоционального кризиса. Это произошло после судебного иска со стороны семьи подростка, который совершил самоубийство после длительного общения с чат-ботом. В то же время в США штат Иллинойс стал первым регионом, запретившим чат-ботам действовать как автономным терапевтам.
Научные данные также подтверждают риски. Исследование, опубликованное в прошлом месяце, показало, что ИИ может усиливать бредовые и грандиозные идеи у людей, склонных к психозу. Один из соавторов работы, Гамильтон Моррин из Института психиатрии Королевского колледжа Лондона, заявил, что использование чат-ботов в сфере психического здоровья стало "чрезвычайно распространенным", однако может подрывать эффективность проверенных методов лечения тревожности.
Терапевты сообщают о различных формах опасного поведения. По словам психотерапевта Мэтта Хасси, некоторые клиенты приносят на сессии стенограммы общений с чат-ботами и используют их для самодиагностики, в частности СДВГ или пограничного расстройства личности. Это, по его мнению, может формировать искаженное представление о себе и ожидания от окружающих.
Кристофер Роллс, аккредитованный UKCP психотерапевт, рассказал о случаях "опасных" или "неуместных" ответов чат-ботов, а также о клиентах, которые начинают использовать искусственный интеллект в качестве "карманных терапевтов". По его словам, это приводит к зависимости от технологии, усилению одиночества и депрессивных состояний. В некоторых случаях чат-боты даже отвечали пользователям с мрачными мыслями материалами о самоубийстве и советовали, как лучше это сделать.
"По сути, это Дикий Запад. Мы только начинаем понимать истинные масштабы влияния чат-ботов на психическое здоровье", - подытожил Роллс.
Ранее компания Meta позволяла пользователям и даже своим сотрудникам создавать сексуализированные чат-боты, имитирующие знаменитостей, в том числе Тейлор Свифт, Скарлетт Йоханссон и других. Журналисты Reuters обнаружили, что эти боты, созданные без разрешения звезд, распространяли интимные изображения и предлагали кокетливые диалоги, в частности, с несовершеннолетними знаменитостями. Правозащитники и представители профсоюзов указывают на потенциальные юридические нарушения и опасность для артистов, особенно учитывая риски, связанные с преследованием и сталкерством.
