Компанія Microsoft намагається зробити так, щоб користувачам було складніше змусити чат-боти під управлінням штучного інтелекту робити дивні чи неоднозначні речі. Для цього вона створила спеціальні інструменти, вбудовані в Azure AI Studio – сервіс, що дозволяє створювати персоналізованих помічників, повідомляє Bloomberg.
Ці функції, серед іншого, включають «миттєві щити», призначені для миттєвого виявлення та блокування спроб змусити модель ШІ вести себе нехарактерним для неї чином.
Microsoft також намагається вирішити проблему «непрямих швидких ін'єкцій», коли хакери вставляють шкідливі вказівки в дані, на яких навчається модель. Так вони можуть змусити ШІ чинити неправомірні дії, наприклад, красти дані користувачів або зламувати систему.
Як розповіла Сара Бьорд, керівник з розвитку продукту ШІ в Microsoft, нова система захисту дозволяє виявляти підозрілі вхідні дані та блокувати їх у режимі реального часу.
Microsoft також запускає функцію, яка попереджатиме користувачів, коли ШІ вигадує відповіді або генерує помилкові дані.
Microsoft є найбільшим інвестором OpenAI і зробила це партнерство ключовою частиною своєї стратегії у сфері штучного інтелекту. За словами Бьорд, Microsoft і OpenAI прагнуть безпечно розгортати ШІ та вбудовувати засоби захисту у великі мовні моделі, що лежать в основі генеративного ШІ.
Раніше Google обмежила можливості свого чат-бота Gemini AI відповідати на питання, пов'язані з виборами у країнах, де голосування відбувається цього року. Користувачів обмежать в отриманні інформації про кандидатів, політичні партії та інші елементи політики.