Дослідники OpenAI попереджали раду директорів про небезпечне для людства відкриття – Reuters

Поділитися
Дослідники OpenAI попереджали раду директорів про небезпечне для людства відкриття – Reuters Дослідники OpenAI попередили про небезпечне відкриття © depositphotos/ sdecoret
Лист відправили перед звільненням Сема Альтмана.

Незадовго до звільнення генерального директора Сема Альтмана кілька дослідників компанії OpenAI направили раді директорів листа, в якому розповіли про потужне відкриття, яке потенційно може бути небезпечним для людства. Про це повідомляє Reuters із посиланням на два джерела.

За словами джерел, цей лист був одним із багатьох факторів, що призвели до звільнення Альтмана. Серед них, зокрема, були побоювання щодо комерціалізації розробок до розуміння їхніх наслідків. Водночас, Reuters зазначає, що не змогло ознайомитись із копією листа. Співробітники компанії, які його написали, відмовилися від коментарів.

У листі дослідники відзначили міць ШІ та небезпеки, які він несе. Натомість, які конкретно погрози вони розглядали, не повідомляється.

Вони також розповіли про роботу групи «вчених зі штучного інтелекту», існування якої підтвердили численні джерела. За словами одного з джерел, група, сформована шляхом об'єднання попередніх команд Code Gen та Math Gen, вивчала, як оптимізувати існуючі моделі ШІ, щоб покращити їх міркування та, зрештою, навчити виконувати наукову роботу.

Зазначається, що після запиту агентства компанія розіслала внутрішній лист, в якому розповіла співробітникам про проект Q*, а також лист, направлений раді директорів. За словами одного із джерел, у внутрішньому повідомленні йдеться про те, що у ЗМІ з'явиться певна інформація, але її достовірність не коментується.

Деякі співробітники OpenAI вважають, що проект Q* (читається як Q-Star, Кью-стар) може стати проривами у пошуках так званого загального штучного інтелекту. Під цим розуміються нейромережі, які перевершують людей більшості економічно цінних завдань.

Одне з джерел на умовах анонімності повідомило, що створена модель змогла вирішити деякі складні математичні завдання. Поки що вона вирішує завдання на рівні молодшої школи, але розробники дуже оптимістично налаштовані щодо її майбутніх успіхів.

Дослідники вважають, що математика - це передовий рубеж розвитку генеративного ШІ. Зараз нейромережі вміють добре писати і перекладати, статистично передбачати наступне слово і відповідати по-різному на те саме питання. Але в математиці можлива лише одна правильна відповідь, тобто у ШІ мають з'явитися здібності до роздумів, які нагадують людський інтелект.

І, на відміну від калькулятора, який може виконувати обмежену кількість операцій, генеративний штучний інтелект може узагальнювати, навчатися та розуміти.

Рада директорів звільнила Альтмана 18 листопада. Після цього співробітники OpenAI написали листа, в якому звинуватили раду директорів у неправомірному звільненні Альтмана, ненаданні достатніх доказів для тверджень про те, що Альтман не був відвертим з радою директорів та «несумлінних переговорах» з виконавчим керівництвом компанії.

Автори листа також попередили, що вони незабаром підуть за Альтманом у Microsoft, якщо правління не піде у відставку і не відновить Альтмана і Грега Брокмана, колишнього президента OpenAI, також відстороненого з посади.

22 листопада стало відомо, що Альтман повертається на посаду гендиректора OpenAI, а склад ради директорів змінився.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі