Великобритания опубликовала первые глобальные рекомендации, обеспечивающие безопасное развитие и регулирование искусственного интеллекта. Агентства из 17 стран подтвердили, что они поддержат и подпишут новые рекомендации, сообщает Национальный центр кибербезопасности страны.
Эти указания направлены на повышение уровня безопасности нейросетей и призваны способствовать их успешной разработке и развертыванию. Инструкция поможет создателям ИИ принимать обоснованные решения на каждом этапе процесса разработки и гарантировать безопасное создание таких систем. Предполагается, что при соблюдении рекомендаций системы будут функционировать по назначению, будут доступны при необходимости и будут работать без раскрытия конфиденциальных данных неавторизованным сторонам.
«Благодаря глобальным действиям, таким как эти рекомендации, мы можем возглавить мир в использовании преимуществ, одновременно устраняя потенциальный ущерб от этой новаторской технологии [ИИ — ред.]», — прокомментировал Министр внутренней безопасности США Алехандро Майоркас.
Рекомендации разбиты для четырех ключевых сфер в рамках жизненного цикла разработки систем ИИ:
- Безопасный дизайн – понимание рисков и моделирование возможных угроз.
- Безопасная разработка – обеспечение безопасности цепи поставки и документации.
- Безопасное развертывание – защита инфраструктуры и моделей от доступа посторонних лиц.
- Безопасная эксплуатация и обслуживание – регулирование действий после запуска, мониторинга, управления обновлениями и обмена информацией.
Указания были разработаны Национальным центром кибербезопасности Великобритании (NCSC), являющимся частью GCHQ, и Агентством кибербезопасности и безопасности инфраструктуры США (CISA) в сотрудничестве с отраслевыми экспертами и 21 другим международным агентством и министерством по всему миру – включая всех членов G7 и с Глобального Юга.
Рекомендации подписали Австралия, Канада, Чили, Чехия, Эстония, Франция, Германия, Израиль, Италия, Япония, Новая Зеландия, Норвегия, Польша, Республика Корея, Сингапур, Соединенное Королевство Великобритании и Северной Ирландии и США.
Ранее один из соучредителей компании DeepMind и бывший руководитель Google Мустафа Сулейман рассказал об опасности ИИ. По его мнению, самый мрачный сценарий состоит в том, что люди будут экспериментировать с синтетическими патогенами, которые могут оказаться заразными. Он считает, что вирусы, которые создаются ИИ, могут быть смертоносными и быстро распространяться. Сулейман призывает ограничить круг лиц, использующих программное обеспечение искусственного интеллекта.
Летом ZN.UA спросило украинцев об их отношении к искусственному интеллекту и уровню взаимодействия с технологией. Описывая полученные результаты, Юлия Самаева констатирует, что "Отношение украинцев к искусственному интеллекту удивительно легкомысленное. А зря".