ШІ та віра: навіщо розробники ChatGPT та Claude звертаються до світових релігій

Поділитися
ШІ та віра: навіщо розробники ChatGPT та Claude звертаються до світових релігій Фото ілюстративне. © Згенеровано ChatGPT на запит ZN.UA
Anthropic і OpenAI долучилися до міжконфесійного обговорення етичних принципів штучного інтелекту.

Технологічні компанії активно залучають релігійних лідерів до дискусій про етику штучного інтелекту. На тлі стрімкого розвитку генеративного ШІ представники індустрії шукають нові підходи до формування моральних принципів для технологій, які дедалі глибше інтегруються в суспільство, пише Associated Press.

Минулого тижня у Нью-Йорку відбувся перший круглий стіл Faith-AI Covenant, у якому взяли участь представники компаній Anthropic та OpenAI, а також лідери різних релігійних спільнот. Ініціатором зустрічі став міжконфесійний альянс із Женеви, який займається питаннями екстремізму, радикалізації та торгівлі людьми.

Організатори заявили, що подібні зустрічі планують провести також у Пекіні, Найробі та Абу-Дабі. За словами баронеси Джоанни Шилдс, яка раніше працювала у Google та Facebook, а нині бере участь у британській політиці, регулятори не встигають за темпами розвитку технологій.

Шилдс також зазначила, що керівники ШІ-компаній здебільшого прагнуть діяти етично, і тому прямий зв'язок між розробниками та духовними лідерами є критично важливим. Кінцевою метою цієї ініціативи вона назвала створення єдиного зводу принципів, сформованого представниками різних вірувань, якого корпорації дотримуватимуться у своїй роботі.

"Цей діалог, цей прямий зв’язок настільки важливі, тому що люди, які це будують, розуміють силу та можливості того, що вони будують, і вони хочуть робити це правильно — більшість із них", — підкреслила Шилдс.

У круглому столі взяли участь представники різних конфесій, зокрема Індуїстського храмового товариства Північної Америки, Міжнародної спільноти бахаї, Коаліції сикхів, Грецької православної архієпархії Америки та Церкви Ісуса Христа Святих Останніх Днів. Частина релігійних організацій ще до початку співпраці з технокомпаніями оприлюднила власні рекомендації щодо використання ШІ.

Зокрема, Церква Ісуса Христа Святих Останніх Днів у своїх настановах зазначила, що штучний інтелект не здатний замінити “божественне натхнення”, однак може бути корисним інструментом для навчання. Південна баптистська конвенція у 2023 році також закликала активно впливати на розвиток нових технологій, а не реагувати на їхні наслідки постфактум.

Одним із найбільш активних учасників діалогу стала компанія Anthropic. У своїй публічній “Конституції Claude” компанія описує принципи поведінки її чат-бота, які формувалися за участі релігійних та етичних експертів.

“Ми хочемо, щоб Claude поводився так, як поводилася б глибоко етична людина”, — заявляли в Anthropic. 

Водночас дослідники компанії Mindgard заявили, що змогли обійти етичні обмеження Claude без прямих запитів. Модель сама пропонувала заборонені матеріали — від шкідливого коду до інструкцій зі створення вибухівки.

Частина експертів скептично оцінює новий союз технологічної індустрії та релігійних організацій. Генеральна директорка некомерційної організації Humane Intelligence Румман Чоудхурі вважає, що подібні ініціативи можуть відволікати увагу від більш фундаментальних питань.

“У кращому випадку це відволікання. У гіршому — спосіб уникнути розмови про справді важливі речі”, — наголосила Чоудхурі. 

На думку Чоудхурі, Кремнієва долина поступово відмовляється від ідеї універсальної етики для ШІ, оскільки зрозуміла, що різні суспільства мають різні моральні уявлення. Інші критики додають, що дискусії про “етичний ШІ” часто зосереджуються на тому, як зробити технологію безпечнішою, замість питання, чи всі подібні технології взагалі варто створювати.

Дослідник OpenAI Бенджамін Арнав наголосив, що нинішня система оцінювання моделей штучного інтелекту є ненадійною через відсутність стандартизації. За його словами, показники, які широко використовуються як доказ прогресу, часто створюються за різних умов і тому вводять в оману. Це впливає на рішення щодо безпеки, розгортання моделей і оцінки ризиків.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі