UA / RU
Поддержать ZN.ua

Террористы могут попытаться использовать искусственный интеллект — предупреждение глав МИ5 и ФБР

Хотя разработчики ИИ ввели меры безопасности, существует риск взлома этих методов контроля.

Искусственный интеллект может быть использован террористами или враждебными государствами для создания бомб, распространения пропаганды или срыва выборов, считают главы MИ5 и ФБР Кен МакКаллум и Кристофер Рэй. Об этом сообщает The Guardian.

Читайте также: The Economist: Как искусственный интеллект повлияет на выборы в 2024 году?

По их словам, МИ5 и ФБР следят за развитием событий и нуждаются в сотрудничестве с экспертами в частном секторе для противодействия новым угрозам на фоне развития искусственного интеллекта.

Глава МИ5 Кен МакКаллум отметил, что хотя разработчики ИИ ввели меры безопасности, чтобы предотвратить использование программного обеспечения для получения информации о том, как сделать бомбу, существует риск того, что можно "взломать" эти методы контроля.

"Если у вас есть опыт в сфере безопасности, было бы глупо полагаться на то, что эти средства контроля останутся неприступными. Существует очевидный риск того, что некоторые из этих систем могут быть использованы для целей, не предусмотренных их разработчиками", - пояснил МакКаллум.

По словам Рэя, террористические группы пытались использовать ИИ для обхода мер, встроенных в некоторую инфраструктуру искусственного интеллекта, чтобы искать, как сделать бомбу или способы запутать поиск.

Это не единственный пример того, как враждебные субъекты пытались использовать искусственный интеллект, добавил Рэй.

Читайте также: Отношение украинцев к искусственному интеллекту на удивление легкомысленное. А зря

"Мы видели, как ИИ использовался для существенного усиления распространения террористической пропаганды, используя инструменты перевода, чтобы сделать ее более связной и более достоверной для потенциальных сторонников", - сказал он,

Рэй и МакКаллум выступали на саммите группы "Пяти глаз" с участием руководителей национальных разведывательных служб Австралии, Канады, Новой Зеландии в Стэнфордском университете.

МакКаллум сказал, что, по его мнению, некоторые риски для безопасности, связанные с искусственным интеллектом, будут обсуждаться на глобальном саммите по вопросам ИИ, который планирует организовать британский премьер Риши Сунак в начале ноября.

Главы МИ5 и ФБР заявили, что отслеживают изощренные попытки политического вмешательства посредством искусственного интеллекта со стороны враждебных государств, таких как Россия, накануне предстоящих выборов в США и Великобритании.

"Использование искусственного интеллекта, если он достаточно сложен, чтобы создавать потенциальные глубокие фейки, добавляет уровень угрозы, с которым мы раньше не сталкивались", - сказал Рэй.

По его словам, учитывается, что нынешняя стратегия враждебных стран может стать еще более опасной.

МакКаллум сказал, что мониторинг дезинформации не является основной задачей МИ5, но он был внимателен к враждебным государствам, пытающимся манипулировать мнениями в Британии, и указал, что аналитики ведут наблюдение.

"Поэтому я не хотел бы делать какие-либо серьезные прогнозы, что это будет иметь место на предстоящих выборах, но мы бы не выполняли свою работу должным образом, если бы не рассматривали такую возможность", - отметил он.

Кроме того, на мероприятии в Калифорнии прозвучали предупреждения о том, что террористические угрозы могут возрасти в результате эскалации между Израилем и ХАМАС, а также заявления о масштабах китайского шпионажа.

Читайте также: G7 согласовывает проект руководящих принципов регулирования деятельности разработчиков ИИ

Ранее сообщалось, что министры цифровых технологий стран G7 согласовали пять принципов развития гибких форм управления новыми технологиями, такими как искусственный интеллект на фоне быстрого распространения использования чат-ботов на основе ИИ по всему миру.

Быстрые темпы развития ИИ подчеркнули необходимость международных стандартов для управления этой технологией, и многие страны усилили регулирование использования ChatGPT от OpenAI из-за опасений конфиденциальности.