Високопоставлений чиновник Міністерства оборони США, який займається питаннями штучного інтелекту, заявив, що відомству необхідно дізнатися більше про інструменти ШІ, перш ніж воно повністю візьме на себе зобов'язання використовувати цю технологію, закликавши розробників бути більш прозорими. Про це повідомляє Bloomberg.
Головний офіцер Пентагону, який займається питаннями цифрових технологій і штучного інтелекту, Крейг Мартелл хоче, щоб компанії ділилися інформацією про те, як побудоване їхнє програмне забезпечення для ШІ - без втрати інтелектуальної власності, щоб департамент міг "відчувати себе комфортно і безпечно", приймаючи його на озброєння.
Програмне забезпечення для штучного інтелекту спирається на великі мовні моделі (LLM), які використовують величезні масиви даних для роботи таких інструментів, як чат-боти і генератори зображень. Зазвичай послуги пропонуються без демонстрації їхньої внутрішньої роботи - у так званому "чорному ящику". Через це користувачам важко зрозуміти, як технологія приймає рішення або що змушує її працювати краще чи гірше з плином часу.
"Ми просто отримуємо кінцевий результат побудови моделі - цього недостатньо", - сказав Мартелл.
За його словами, Пентагон не має жодного уявлення про те, як побудовані моделі і які дані були використані. Компанії також не пояснюють, яку небезпеку можуть становити їхні системи.
"Вони кажуть: ось воно, ми не розповідаємо вам, як ми це створили, ми не говоримо вам, в чому вона (система - ред.) хороша чи погана, ми не говоримо вам, упереджена вона чи ні", - зазначив Мартелл.
Він назвав такі моделі еквівалентом "знайденої інопланетної технології" для Міністерства оборони. Мартелл також стурбований тим, що лише кілька груп людей мають достатньо грошей, щоб побудувати LLM. Він конкретно не називав жодної компанії, але Microsoft Corp., Google Alphabet Inc. та Amazon.com Inc. є серед тих, хто розробляє LLM для комерційного ринку, а також стартапи OpenAI та Anthropic.
Мартелл запросив представників промисловості та науковців до Вашингтона в лютому, щоб обговорити ці проблеми. За його словами, симпозіум Пентагону з питань оборонних даних та штучного інтелекту має на меті з'ясувати, з якими завданнями можуть впоратися LLM.
За його словами, команда, яка керує робочою групою з оцінки LLM, вже знайшла для них 200 потенційних сфер застосування в Міністерстві оборони.
"Ми не хочемо зупиняти великі мовні моделі. Ми просто хочемо зрозуміти їх використання, переваги, небезпеки і те, як їм протистояти", - додав він.
За словами Мартелла, у міністерстві зростає підтримка використання LLM. Але там також визнають, що якщо програмне забезпечення ШІ фабрикує інформацію або видає неправильний результат, що не є рідкістю, саме вони повинні взяти на себе відповідальність за це.
Мартелл сподівається, що лютневий симпозіум допоможе побудувати те, що він назвав "моделлю зрілості", щоб встановити орієнтири, пов'язані з помилками у роботі систем ШІ, упередженістю і небезпекою. Хоча перший проект звіту може містити помилки, пов'язані зі штучним інтелектом - те, що людина може згодом виправити, ці помилки будуть неприйнятними в більш ризикованих ситуаціях, наприклад, в інформації, необхідній для прийняття оперативних рішень.
Закрита сесія на триденному лютневому заході буде присвячена тому, як тестувати і оцінювати моделі, а також захищатися від хакерських атак.
Мартелл сказав, що його відділ відіграє консультативну роль у Міністерстві оборони, допомагаючи різним групам знайти правильний спосіб вимірювання успіху або невдачі їхніх систем. Наразі агентство реалізує понад 800 проектів у сфері ШІ, деякі з них пов'язані з системами озброєнь.
За його словами, з огляду на ставки, Пентагон застосовуватиме вищі вимоги до використання алгоритмічних моделей, ніж приватний сектор.
"Буде багато випадків використання, коли на кону стоятимуть людські життя. Тому допускати збої або як би ми це не називали - просто неприйнятно", - зазначив Мартелл.
Раніше повідомлялося, що американські спецслужби отримають власний інструмент у стилі ChatGPT, щоб “просіювати” лавину публічної інформації в пошуках зачіпок. Центральне розвідувальне управління США готується запустити функцію, подібну до відомої програми OpenAI Inc., яка використовуватиме штучний інтелект, щоб надати аналітикам кращий доступ до відкритих джерел інформації.