Компанія Samsung заборонила своїм співробітникам використовувати інструменти на основі генеративного штучного інтелекту після того, як виявила, що співробітники завантажують у ChatGPT конфіденційний код. Компанія побоюється, що це може призвести до витоку інформації, повідомляє Bloomberg із посиланням на службову записку, яка була відправлена до європейського підрозділу компанії.
У ньому, зокрема, йдеться, що Samsung стурбована тим, що дані, що передаються на платформи штучного інтелекту, включаючи Google Bard і Bing, зберігаються на зовнішніх серверах, що ускладнює їх вилучення та видалення і може в кінцевому підсумку призвести до того, що вони стануть доступними іншим користувачам.
Минулого місяця компанія провела опитування про використання інструментів штучного інтелекту всередині компанії та заявила, що 65% респондентів вважають, що такі сервіси становлять загрозу безпеці.
Згідно з внутрішніми документами Samsung раніше інженери компанії випадково допустили витік конфіденційного коду, завантаживши його в ChatGPT. Яку інформацію він містив, поки що неясно.
Представники Samsung підтвердили, що відправили записку із забороною використання генеративного ШІ.
«Інтерес до генеративних платформ штучного інтелекту, таких як ChatGPT, зростає як усередині компанії, так і за її межами. Хоча цей інтерес зосереджений на корисності та ефективності цих платформ, також зростає занепокоєння щодо ризиків безпеки, пов'язаних із генеративним ШІ», - заявили в компанії.
Нагадаємо, ЄС має намір запровадити регулювання авторського права для штучного інтелекту. Компанії, що створюють генеративні інструменти штучного інтелекту, такі як ChatGPT, повинні заявляти, чи були використані будь-які захищені авторським правом матеріали для розробки цих систем. Ці правила можуть прокласти шлях для перших у світі комплексних законів, що регулюють цю технологію.