UA / RU
Поддержать ZN.ua

ИИ игнорирует компромиссы: ученые обнаружили слабое место в социальной координации больших языковых моделей

Игровые задания помогли разработать стратегию улучшения работы ИИ.

Большие языковые модели (LLM) такие, как GPT-4, Claude 2 и Llama 2, демонстрируют значительные успехи в области генерации текстов и логического анализа. Однако исследования показывают: в ситуациях, где требуется социальное взаимодействие, они до сих пор ведут себя как индивидуалисты, сообщают TechXplore.

В недавней работе, опубликованной в журнале Nature Human Behaviour, ученые из Мюнхенского института искусственного интеллекта имени Гельмгольца, Института биологической кибернетики Макса Планка и Тюбингенского университета смоделировали поведение LLM в социальных сценариях. Модели участвовали в серии повторяющихся игр, в частности в известных теоретико-игровых задачах - "Дилемма заключенного" и "Битва полов".

"Вдохновением был простой, но важный вопрос: если специалисты по праву (LLM) собираются взаимодействовать с людьми и друг с другом в реальных приложениях, насколько хорошо они на самом деле понимают социальную динамику?", - пояснила первый автор исследования Элиф Аката.

Исследователи обнаружили, что модели хорошо ориентируются в конкурентных сценариях, где каждый участник действует в собственных интересах. В то же время в ситуациях, которые требуют компромиссов, взаимопонимания и совместного планирования, LLM часто не могут наладить эффективную координацию.

"Эти результаты свидетельствуют о том, что современные модели еще не имеют развитого социального интеллекта, но они также показывают, что существуют способы направить их к поведению, более похожему на человеческое", - сказала Аката.

Читайте также: Не нужно гуглить: ChatGPT теперь помогает выбирать покупки

Улучшить результат помогла одна из стратегий - запрос к модели спрогнозировать действия партнера перед принятием решения. Такой подход смог существенно повысить уровень сотрудничества и эффективности.

Ученые убеждены: исследование поведения моделей в социальном контексте позволяет лучше подготовить их к использованию в важных жизненных сферах - например, в медицинских консультациях, образовании или социальной поддержке. В таких случаях искусственный интеллект должен проявлять эмпатию, строить взаимопонимание и действовать таким образом, чтобы люди чувствовали поддержку и доверие.

Следующим шагом команды исследователей является моделирование более сложных ситуаций. Они стремятся задействовать многосторонние игры (где соревнуется более двух игроков), сценарии с неполной информацией и долговременные взаимодействия, где успех зависит от стабильности взаимоотношений между участниками.

Напомним, что искусственный интеллект стремятся интегрировать в Telegram. Компания Илона Маска xAI с Павлом Дуровым заключили соглашение, которое предусматривает интеграцию в мессенджер чат-бота Grok с искусственным интеллектом. Также компания Дурова будет иметь 50% с подписок на xAI. Пользователи смогут задавать вопросы искусственному интеллекту через строку поиска.