Большие языковые модели (LLM) такие, как GPT-4, Claude 2 и Llama 2, демонстрируют значительные успехи в области генерации текстов и логического анализа. Однако исследования показывают: в ситуациях, где требуется социальное взаимодействие, они до сих пор ведут себя как индивидуалисты, сообщают TechXplore.
В недавней работе, опубликованной в журнале Nature Human Behaviour, ученые из Мюнхенского института искусственного интеллекта имени Гельмгольца, Института биологической кибернетики Макса Планка и Тюбингенского университета смоделировали поведение LLM в социальных сценариях. Модели участвовали в серии повторяющихся игр, в частности в известных теоретико-игровых задачах - "Дилемма заключенного" и "Битва полов".
"Вдохновением был простой, но важный вопрос: если специалисты по праву (LLM) собираются взаимодействовать с людьми и друг с другом в реальных приложениях, насколько хорошо они на самом деле понимают социальную динамику?", - пояснила первый автор исследования Элиф Аката.
Исследователи обнаружили, что модели хорошо ориентируются в конкурентных сценариях, где каждый участник действует в собственных интересах. В то же время в ситуациях, которые требуют компромиссов, взаимопонимания и совместного планирования, LLM часто не могут наладить эффективную координацию.
"Эти результаты свидетельствуют о том, что современные модели еще не имеют развитого социального интеллекта, но они также показывают, что существуют способы направить их к поведению, более похожему на человеческое", - сказала Аката.
Улучшить результат помогла одна из стратегий - запрос к модели спрогнозировать действия партнера перед принятием решения. Такой подход смог существенно повысить уровень сотрудничества и эффективности.
Ученые убеждены: исследование поведения моделей в социальном контексте позволяет лучше подготовить их к использованию в важных жизненных сферах - например, в медицинских консультациях, образовании или социальной поддержке. В таких случаях искусственный интеллект должен проявлять эмпатию, строить взаимопонимание и действовать таким образом, чтобы люди чувствовали поддержку и доверие.
Следующим шагом команды исследователей является моделирование более сложных ситуаций. Они стремятся задействовать многосторонние игры (где соревнуется более двух игроков), сценарии с неполной информацией и долговременные взаимодействия, где успех зависит от стабильности взаимоотношений между участниками.
Напомним, что искусственный интеллект стремятся интегрировать в Telegram. Компания Илона Маска xAI с Павлом Дуровым заключили соглашение, которое предусматривает интеграцию в мессенджер чат-бота Grok с искусственным интеллектом. Также компания Дурова будет иметь 50% с подписок на xAI. Пользователи смогут задавать вопросы искусственному интеллекту через строку поиска.
