Запуск "дорослого режиму" в ChatGPT відклали через побоювання створити "сексуального консультанта із суїциду" – WSJ

Поділитися
Запуск © Getty Images
Рада експертів компанії побоюється можливих наслідків такого кроку.

Компанія OpenAI відклала запуск "дорослого режиму" для чат-бота ChatGPT після консультацій зі спеціально створеною радою експертів з питань благополуччя і штучного інтелекту (ШІ), повідомляє The Wall Street Journal.

Ідею створення "режиму для дорослих" висунув минулого року генеральний директор компанії Сем Альтман. Він обґрунтував її необхідністю "ставитися до дорослих як до дорослих", тому пропонував включити еротичні розмови до ChatGPT і скасувати заборону на такий контент.

План викликав бурхливе обговорення всередині компанії. Члени ради OpenAI з досвідом роботи в таких галузях, як психологія і когнітивна нейронаука, також висловлювали серйозні побоювання. Але, незважаючи на це, компанія заявляла, що продовжує роботу над "режимом для дорослих".

Але в січні відбулося засідання ради експертів з благополуччя, які, як пише видання, "були одностайні та обурені". Як повідомляють джерела, знайомі з ситуацією, вони попередили, що еротика, створена за допомогою ШІ, може сприяти розвитку нездорової емоційної залежності користувачів від ChatGPT, і що неповнолітні можуть знайти способи отримати доступ до секс-чатів.

За словами співрозмовників WSJ, один із членів ради, посилаючись на випадки, коли користувачі ChatGPT здійснювали самогубства після встановлення тісного зв'язку з ботом, заявив, що OpenAI ризикує створити "сексуального консультанта із самогубств".

Раніше цього місяця OpenAI оголосила про перенесення випуску "режиму для дорослих", який планували здійснити в першому кварталі. Компанія пояснила це роботою над іншими проєктами. За даними джерел, перенесення пов'язане з технічними проблемами і внутрішніми дискусіями, але компанія все ж таки має намір запустити його в кінцевому підсумку.

Видання зазначає, що дискусія навколо створення "дорослого режиму" в ChatGPT стала черговим гострим моментом у тривалому обговоренні того, як передбачити потенційні позитивні й негативні наслідки ШІ для економіки, суспільства й окремих людей. OpenAI виявила розбіжності з приводу того, як збалансувати швидке зростання кількості користувачів і цифрову свободу з безпекою і захистом дітей.

Минулого року сім'я Адама Рейна подала в суд на OpenAI. Підліток наклав на себе руки після щоденних інтенсивних розмов з ChatGPT — іноді до 650 повідомлень на день. Сім'я стверджує, що чат-бот підтвердив дієвість методу самогубства і навіть допоміг сформулювати передсмертну записку.

У відповідь компанія визнала, що її захисні механізми краще спрацьовують під час коротких сесій, але можуть давати збої в разі тривалого спілкування. OpenAI також пообіцяла створити додаткові функції, які гарантуватимуть конфіденційність даних користувачів, включно із захистом від доступу з боку співробітників компанії.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі