Як ШІ впливає на політичні погляди: нові моделі стають переконливішими, жертвуючи точністю

Поділитися
Як ШІ впливає на політичні погляди: нові моделі стають переконливішими, жертвуючи точністю Фото ілюстративне. © Getty Images
Досліджені чат-боти давали інформаційно щільні, але суттєво неточні відповіді.

Масштабне британське дослідження, проведене за участю майже 80 тисяч людей, показало, що чат-боти можуть впливати на політичні погляди користувачів. Водночас моделі, які переконують найефективніше, часто допускають значну кількість неточностей, повідомляє The Guardian.

Інститут безпеки штучного інтелекту дослідив, як 19 моделей, серед яких ChatGPT та Grok, впливають на думки користувачів під час політичних дискусій. Учасники спілкувалися з моделями приблизно 10 хвилин і обмінювалися в середньому сімома повідомленнями кожен. Перед та після розмови вони зазначали, чи погоджуються з низкою політичних тверджень, що дозволило виміряти зміну позиції. Серед тем дискусій були страйки в державному секторі, вартість життя та інфляція, що дозволило виміряти вплив ШІ на різні аспекти політичного мислення.

Дослідження виявило, що найпереконливішими були “інформаційно щільні” відповіді, коли моделі використовували багато фактів і доказів. Водночас саме такі відповіді виявилися найменш точними. 

“Ці результати свідчать про те, що оптимізація переконливості може призвести до певних наслідків для правдивості, а ця динаміка може мати негативні наслідки для публічного дискурсу та інформаційної екосистеми”, – зазначено у звіті, опублікованому в журналі Science.

Моделі демонстрували вищу ефективність переконання після етапу постнавчання, під час якого їх оптимізували за допомогою так званих моделей винагород. Це дозволило посилити переконливість навіть відкритих моделей на кшталт Llama 3 від Meta чи Qwen від Alibaba. 

Водночас надання ШІ доступу до персональної інформації користувачів майже не вплинуло на результати. Дослідники наголошують, що здатність ШІ генерувати великі обсяги інформації робить його потенційно впливовішим за людину. 

“Оскільки щільність інформації є ключовим фактором успіху переконання, це означає, що штучний інтелект може перевершити переконливість навіть впливових людей, враховуючи їхню унікальну здатність генерувати великі обсяги інформації майже миттєво під час розмови”, – йдеться у звіті.

Науковці також підкреслили, що існують обмеження реального впливу чат-ботів, зокрема, небажання людей витрачати час на тривалі політичні розмови. На це звернув увагу один з авторів дослідження, науковий співробітник AISI Кобі Хакенбург. 

“Ми виявили, що спонукання моделей просто використовувати більше інформації було ефективнішим, ніж усі ці психологічно складніші методи переконання”, – сказав Хакенбург. Дослідник додав, що у реальному житті існує багато чинників, які конкурують за увагу людини, що може зменшувати ефект від таких розмов.

У статті “Як працює штучний інтелект і чому він лише вдає, що нас розумієОксана Онищенко поспілкувалася з доктором юридичних наук Олексієм Костенком. Він пояснив, що ШІ не володіє свідомістю, а працює як система математичних алгоритмів, що будує логічні ланцюжки з інформаційних токенів. Так звані “галюцинації” чат-ботів насправді є результатом дефіциту даних, який моделі намагаються компенсувати найближчою доступною інформацією.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі