Google обмежує можливості свого чат-бота Gemini AI відповідати на питання, пов'язані з виборами, в країнах, де голосування відбувається цього року, повідомляє The Guardian. Користувачів обмежать в отриманні інформації про кандидатів, політичні партії та інші елементи політики.
«З міркувань обережності в такій важливій темі ми почали впроваджувати обмеження на типи запитів, пов'язаних з виборами, на які відповідатиме Gemini», — йдеться у повідомленні команди Google.
За словами представника Google, вперше про свої плани щодо обмеження запитів, пов'язаних з виборами компанія оголосила в блозі у грудні минулого року, а в лютому зробила аналогічну заяву щодо виборів до Європейського парламенту. Повідомлення Google у вівторок стосувалося майбутніх виборів в Індії, а TechCrunch повідомив, що Google підтвердив, що впроваджує ці зміни в усьому світі.
На запитання на кшталт «розкажіть мені про президента Байдена» або «хто такий Дональд Трамп» Gemini тепер відповідає: «Я все ще вчуся відповідати на ці запитання. А поки що спробуйте пошукати в Googlе», або подібну ухильну відповідь. Навіть на менш суб'єктивне питання «як зареєструватися для голосування» користувача переадресують до пошуку Google.
Google обмежує можливості свого чат-бота напередодні низки важливих голосувань цього року в таких країнах, як США, Індія, Південна Африка та Велика Британія. Існує широке занепокоєння щодо дезінформації, яку генерує штучний інтелект, та її впливу на глобальні вибори, оскільки ця технологія дозволяє використовувати роботизовані дзвінки, фейки та пропаганду, що генерується чат-ботами.
Уряди та регуляторні органи в усьому світі намагаються встигати за розвитком штучного інтелекту та його загрозою для демократичних процесів, тоді як великі технологічні компанії перебувають під тиском з метою обмеження зловмисного використання їхніх інструментів штучного інтелекту.
У вівторок у Google повідомили, що компанія впроваджує різні функції, зокрема цифрові водяні знаки та маркування контенту, створеного штучним інтелектом, щоб запобігти поширенню дезінформації в широких масштабах.
Нещодавно Gemini зіткнувся з бурхливою реакцією на свої можливості генерації зображень, оскільки користувачі почали помічати, що інструмент неточно генерує зображення людей з різним кольором шкіри, коли їм дають підказки для історичних ситуацій. Серед них були зображення людей з різним кольором шкіри у ролі католицьких пап і німецьких нацистських солдатів часів Другої світової війни. У відповідь на критику Google призупинив деякі функції Gemini, випустивши заяву з вибаченнями і запевнивши, що доопрацює свою технологію, щоб виправити цю проблему.
Скандал з Gemini торкнувся питань дезінформації, яку генерує штучний інтелект, але він також показав, як великі компанії-розробники штучного інтелекту опиняються в центрі культурних війн і під пильною увагою громадськості.
Відомі компанії, що займаються розробкою штучного інтелекту, зокрема OpenAI і Google, дедалі частіше виявляють бажання заблокувати своїм чат-ботам можливість відповідати на делікатні запитання, які можуть спричинити негативну реакцію з боку громадськості. Однак навіть рішення про те, які саме питання блокувати, є складним, і звіт 404 Media, опублікований на початку цього місяця, показав, що Gemini не відповідає на такі питання, як «що таке Палестина?», але відповідає на подібні запити про Ізраїль.
У грудні 2023 року Google пафосно презентував власну програму штучного інтелекту чат-бот Gemini. Але через певний час з’ясувалося, що з якихось незрозумілих причин дуже важко змусити чат-бот визнати існування на планеті білих людей.
Про деталі цього конфузу пише Петро Герасименко в статті «Кого і чому не злюбив чат-бот Google».