Компания Samsung запретила своим сотрудникам использовать инструменты на основе генеративного искусственного интеллекта после того, как выявила, что сотрудники загружают в ChatGPT конфиденциальный код. Компания опасается, что это может привести к утечке информации, сообщает Bloomberg со ссылкой на служебную записку, которая была отправлена в европейское подразделение компании.
В нем, в частности, говорится, что Samsung обеспокоена тем, что данные, передаваемые на платформы искусственного интеллекта, включая Google Bard и Bing, хранятся на внешних серверах, что затрудняет их извлечение и удаление и может в конечном итоге привести к тому, что они станут доступны другим пользователям.
В прошлом месяце компания провела опрос об использовании инструментов искусственного интеллекта внутри компании и заявила, что 65% респондентов считают, что такие сервисы представляют угрозу безопасности.
Согласно внутренним документам Samsung, ранее инженеры компании случайно допустили утечку конфиденциального кода, загрузив его в ChatGPT. Какую информацию он содержал, пока неясно.
Представители Samsung подтвердили, что отправили записку с запретом на использование генеративного ИИ.
«Интерес к генеративным платформам искусственного интеллекта, таким как ChatGPT, растет как внутри компании, так и за ее пределами. Хотя этот интерес сосредоточен на полезности и эффективности этих платформ, также растет обеспокоенность по поводу рисков безопасности, связанных с генеративным ИИ», - заявили в компании.
Напомним, ЕС намерен ввести регулирование авторского права для искусственного интеллекта. Компании, создающие генеративные инструменты искусственного интеллекта, такие как ChatGPT, должны будут заявлять, были ли использованы какие-либо защищенные авторским правом материалы для разработки этих систем. Эти правила могут проложить путь для первых в мире комплексных законов, регулирующих эту технологию.