UA / RU
Підтримати ZN.ua

Як ШІ впливає на політичні погляди: нові моделі стають переконливішими, жертвуючи точністю

Досліджені чат-боти давали інформаційно щільні, але суттєво неточні відповіді.

Фото ілюстративне.

Фото ілюстративне.

Масштабне британське дослідження, проведене за участю майже 80 тисяч людей, показало, що чат-боти можуть впливати на політичні погляди користувачів. Водночас моделі, які переконують найефективніше, часто допускають значну кількість неточностей, повідомляє The Guardian.

Інститут безпеки штучного інтелекту дослідив, як 19 моделей, серед яких ChatGPT та Grok, впливають на думки користувачів під час політичних дискусій. Учасники спілкувалися з моделями приблизно 10 хвилин і обмінювалися в середньому сімома повідомленнями кожен. Перед та після розмови вони зазначали, чи погоджуються з низкою політичних тверджень, що дозволило виміряти зміну позиції. Серед тем дискусій були страйки в державному секторі, вартість життя та інфляція, що дозволило виміряти вплив ШІ на різні аспекти політичного мислення.

Дослідження виявило, що найпереконливішими були “інформаційно щільні” відповіді, коли моделі використовували багато фактів і доказів. Водночас саме такі відповіді виявилися найменш точними. 

Читайте також: Штучний інтелект не розуміє гумор: LLM лише імітують гру слів, але не усвідомлюють сенсу

“Ці результати свідчать про те, що оптимізація переконливості може призвести до певних наслідків для правдивості, а ця динаміка може мати негативні наслідки для публічного дискурсу та інформаційної екосистеми”, – зазначено у звіті, опублікованому в журналі Science.

Моделі демонстрували вищу ефективність переконання після етапу постнавчання, під час якого їх оптимізували за допомогою так званих моделей винагород. Це дозволило посилити переконливість навіть відкритих моделей на кшталт Llama 3 від Meta чи Qwen від Alibaba. 

Водночас надання ШІ доступу до персональної інформації користувачів майже не вплинуло на результати. Дослідники наголошують, що здатність ШІ генерувати великі обсяги інформації робить його потенційно впливовішим за людину. 

Читайте також: Штучний інтелект вчиться бути егоїстичним - учені

“Оскільки щільність інформації є ключовим фактором успіху переконання, це означає, що штучний інтелект може перевершити переконливість навіть впливових людей, враховуючи їхню унікальну здатність генерувати великі обсяги інформації майже миттєво під час розмови”, – йдеться у звіті.

Науковці також підкреслили, що існують обмеження реального впливу чат-ботів, зокрема, небажання людей витрачати час на тривалі політичні розмови. На це звернув увагу один з авторів дослідження, науковий співробітник AISI Кобі Хакенбург. 

“Ми виявили, що спонукання моделей просто використовувати більше інформації було ефективнішим, ніж усі ці психологічно складніші методи переконання”, – сказав Хакенбург. Дослідник додав, що у реальному житті існує багато чинників, які конкурують за увагу людини, що може зменшувати ефект від таких розмов.

У статті “Як працює штучний інтелект і чому він лише вдає, що нас розумієОксана Онищенко поспілкувалася з доктором юридичних наук Олексієм Костенком. Він пояснив, що ШІ не володіє свідомістю, а працює як система математичних алгоритмів, що будує логічні ланцюжки з інформаційних токенів. Так звані “галюцинації” чат-ботів насправді є результатом дефіциту даних, який моделі намагаються компенсувати найближчою доступною інформацією.