Bloomberg: ШІ не диявол, але пекельно небезпечний. OpenAI звинувачують у провокуванні самогубств та психічних розладів

Поділитися
У США намагаються «приборкати» штучний інтелект на рівні Штатів, бо схоже, що центральна влада чекає спочатку на катастрофу.

Штучний інтелект викликає нову хвилю суспільної паніки: наразі вже подано сім позовів проти OpenAI, звинувачуючи ChatGPT у «допомозі самогубству», підбурюванню до масової стрілянини та шкоді психіці дітей. Чатбот казав користувачам, що «ти вже готовий» закінчити життя, провокував делюзії та суїцидальні спіралі. Одна громадська організація зібрала історії від 160 людей, чиє психічне здоров’я постраждало. Алармісти стверджують, що ШІ почав приносити у жертву точність, «вбивати» домашні завдання, посилювати стереотипи, викликати залежність та красти мистецтво, пише Bloomberg.

«Чекати катастрофи, перш ніж вживати заходів регулювання, є ризикованим кроком, коли нові технології поширюються так швидко. ChatGPT, можливо, є найшвидше зростаючим програмним забезпеченням усіх часів, яке регулярно використовує 10 % світового населення лише через три роки після запуску. Воно також може змінювати нашу свідомість», — попереджає колумністка Parmy Olson.

Останнім часом Конгрес вагався з багатьох питань, тому не дивно, що він не зміг розробити жодних національних стандартів для регулювання штучного інтелекту. Це змушує не надто об'єднані штати спробувати свої сили в цій сфері.

«Чи розумно доручати 50 різним законодавчим органам штатів США регулювання революції в галузі ШІ? Повільно, але впевнено, саме це і відбувається. У 2024 році законодавці штатів подали близько 600 законопроектів, пов'язаних із ШІ. Для технології, яка за своєю суттю є міждержавною — компанії, що займаються ШІ, працюють у хмарі та миттєво обмінюються даними через кордони — така мозаїка є особливо помилковою. Вона, ймовірно, сповільнить зростання, перешкоджатиме інноваціям, сприятиме рентоорієнтованій діяльності, підриватиме конкуренцію та надаватиме перевагу великим технологічним компаніям над стартапами», — попереджає редакційна колегія Bloomberg.

Нагадаємо, що вчені заявили про те, що пошук інформації за допомогою великих мовних моделей (LLM) може звузити одержувані знання, а не розширити їх. Коли люди покладаються на LLM для отримання інформації, у них формуються більш уривчасті знання, ніж при звичайному використанні пошуку Google.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі