Переписка з ChatGPT може відображатися в пошуку Google

Поділитися
Переписка з ChatGPT може відображатися в пошуку Google © Getty Images
Чати стають доступними всім, якщо поділитися ними із друзями.

Приватний обміни чатами GPT через функцію “Поділитися” робить їх доступними для мільйонів користувачів інтернету. Google індексує такі розмови, навіть якщо ви поширили їх у невеликому колі близьких, повідомляє Fast Company.  

Теханалітики видання з’ясували це, просто ввівши у рядок пошуку частину посилання, яке генерується сервісом для поширення. Користувачі ChatGPT обмінюються із ботом великою кількістю чутливої інформації. Обговорюють медичні діагнози, просять поради з побутових питань, діляться переживаннями, як з психотерапевтом

Дослідники дали тривожний сигнал: стеження за людьми стало нормою та ставить під загрозу приватність
Дослідники дали тривожний сигнал: стеження за людьми стало нормою та ставить під загрозу приватність

Хоча сервіс приховує власника чату, але по деталях переписки частина з них може бути деанонімізована. Проводячи своє розслідування, журналісти Fast Company змогли “нагуглити” близько 4500 особистих розмов.  

Google індексує не всі ваші розмови і навіть у відкритих не завжди є приватна інформація. Але фахівці із кібербезпеки наполегливо радять враховувати цей момент перед тим, як ділитися своїми чатами з мовними моделями GPT. 

В OpenAI так прокоментували виявлені проблеми з безпекою чутливих даних:

“Розмови в ChatGPT є приватними, якщо ви не вирішите поділитися ними. Створення посилання для поширення вашого чату передбачає опцію зробити його видимим у вебпошуку. Спільні чати видно в Google лише тоді, коли користувачі явно виберуть цю опцію”. 

Зі світу мистецтва в кібербезпеку: історія сміливого вибору дівчини, що змінила пензлі на пентести
Зі світу мистецтва в кібербезпеку: історія сміливого вибору дівчини, що змінила пензлі на пентести

Журналісти Fast Company констатують, що ймовірно ця функція є недостатньо наголошеною та інтуїтивно зрозумілою, якщо така велика кількість особистих переписок опинилася в публічному доступі. Серед таких є чати з детальним описом сімейного життя, консультації щодо психічних розладів та їх симптомів у дітей, тощо. 

Видання попросило прокоментувати цей кейс аналітикиню з кібербезпеки та гендиректорку SocialProof Security Рейчел Тобак:

“Люди очікують, що зможуть використовувати такі інструменти, як ChatGPT, абсолютно конфіденційно, — зазначила вона. —  Але реальність така, що багато користувачів не до кінця розуміють, що ці платформи мають функції, які можуть ненавмисно розкривати їхні найінтимніші запитання, історії та страхи”.

Раніше журналісти The Wall Street Journal з’ясували, що архітектура безпеки у популярних моделей штучного інтелекту є дуже слабкою. Спочатку ШІ навчають, а потім кількома сторінками коду встановлюють безпекові обмеження. Зняти ці обмеження дуже просто, якщо за справу візьметься фахівець. 

Моделі, що не обмежені системою захисту, можуть планувати апокаліптичні сценарії, геноциди та ідеї для скидання урядів. А ті, які не зазнали зовнішніх втручань, потурають людям із психозними маяченнями, чим погіршують їх ментальний стан.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі