Искусственному интеллекту придется научиться объяснять свои "мысли" и действия - The Economist

16 февраля, 2018, 13:35 Распечатать
Отправить
Отправить

Разработчики не до конца понимают, как именно учатся машинные нейронные сети, поэтому нужен механизм отслеживания выводов самообучения компьютеров.

Искусственному интеллекту придется научиться объяснять свои "мысли" и действия - The Economist
Искусственный интеллект должен объяснить людям, как он учится. © flickr/jediah

Научная фантастика предлагает большое количество примеров умных компьютеров: от HAL 9000 в фильме Стэнли Кубрика "2001: Космическая Одиссея" до Eddie в "Автостопом по Галактике".

Единственная общая черта у этих выдуманных машин - это склонность ошибаться и вредить героям историй. HAL 9000 убил большинство членов экипажа миссини на Юпитер. А Eddie, одержимый мелочами, поставил корабль, за который он отвечает, под угрозу уничтожения. В обоих случаях попытка построить что-то полезное, приводило к появлению монстра.

Успешная научная фантастика обязательно должна играть на реальных надеждах или страхах. В 1960-х и 1970-х годах, когда HAL 9000 и Eddie были выдуманы, попытки создать искусственный интеллект были беспомощными. Поэтому страхи и надежды были гипотетическими. Но теперь все изменилось.

Об этом пишет The Economist. Машинное самообучение через технологию нейросетей, которая позволяет машине обрабатывать большие массивы данных в поисках закономерностей, способствует развитию и распространению компьютеров, которые кажутся достаточно разумными. Программы для таких машин варьируются от конвертации человеческой речи в текст до выявления ранних признаков развития слепоты. Искусственный интеллект теперь ведет контроль за качеством на заводах и управляет системами охлаждения дата-центров. Правительства надеются, что он поможет выявлять террористическую пропаганду и удалять ее из интернета. Кроме того, искусственный интеллект занимает центральную роль в разработке автономных автомобилей.

Из 10 самых дорогих компаний в мире 7 говорят, что планируют интегрировать в свои операции искусственный интеллект, который базируется на машинном самообучении. Поэтому умные машины сегодня очень близки к тем, которые были описаны в научной фантастике. Им, безусловно, не хватает осознанной мотивации, которая характерна большинству вымышленных аналогов. Но они все равно порождают страхи и надежды, которые касаются настоящего, а не неопределенного будущего. Поэтому многие люди боятся, что современный искусственный интеллект тоже может превратиться в монстра. Но этот страх связан не столько с тем, что приборы прекратят повиноваться и выполнять инструкции, как с тем, что они как раз будут их выполнять, но каким-то непостижимым образом.

Причина появления такого страха в том, что программы самообучения предусматривают обучение через изменение своих "электронных внутренностей" согласно закономерностям, которые они обнаружили в данных. Фактически они повторяют то, как, по мнению ученых, человеческий мозг учится. Силы связей между битами меняются в компьютерном коде, который разработан вести себя так, как нейроны.

Таким образом, даже разработчик нейронной сети не знает точно, как она работает после прохождения обучения. И как она именно что-то изучила. Разрешить таким машинам управлять критически важной инфраструктурой и принимать решения в медицине означает доверить жизнь людей куску оборудования, которое не известно как на самом деле работает.

Впрочем, если искусственный интеллект сможет как-то объяснить, что и почему он делает, доверие к нему возрастет. А значит он сможет быть более полезным. К тому же, если что-то пойдет не так, собственные объяснения искусственного интеллекта позволят лучше и быстрее провести расследование ошибки.

Ранее Илон Маск заявил о том, что искусственный интеллект является самой большой угрозой, с которой человечество может столкнуться как цивилизация и призвал к жесткому государственному регулированию развития искусственного интеллекта.

По материалам: ZN.UA / Подготовил/ла : Лесь Димань
Оставайтесь в курсе последних событий! Подписывайтесь на наш канал в Telegram
Заметили ошибку?
Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку
ДОБАВИТЬ КОММЕНТАРИЙ
Текст содержит недопустимые символы
ДОБАВИТЬ КОММЕНТАРИЙ
Осталось символов: 2000
Отправить комментарий
Последний Первый Популярный Всего комментариев: 0
Показать больше комментариев
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот коментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК