UA / RU
Поддержать ZN.ua

Искусственному интеллекту придется научиться объяснять свои "мысли" и действия - The Economist

Разработчики не до конца понимают, как именно учатся машинные нейронные сети, поэтому нужен механизм отслеживания выводов самообучения компьютеров.

Искусственный интеллект должен объяснить людям, как он учится.

Искусственный интеллект должен объяснить людям, как он учится.

Научная фантастика предлагает большое количество примеров умных компьютеров: от HAL 9000 в фильме Стэнли Кубрика "2001: Космическая Одиссея" до Eddie в "Автостопом по Галактике".

Единственная общая черта у этих выдуманных машин - это склонность ошибаться и вредить героям историй. HAL 9000 убил большинство членов экипажа миссини на Юпитер. А Eddie, одержимый мелочами, поставил корабль, за который он отвечает, под угрозу уничтожения. В обоих случаях попытка построить что-то полезное, приводило к появлению монстра.

Успешная научная фантастика обязательно должна играть на реальных надеждах или страхах. В 1960-х и 1970-х годах, когда HAL 9000 и Eddie были выдуманы, попытки создать искусственный интеллект были беспомощными. Поэтому страхи и надежды были гипотетическими. Но теперь все изменилось.

Об этом пишет The Economist. Машинное самообучение через технологию нейросетей, которая позволяет машине обрабатывать большие массивы данных в поисках закономерностей, способствует развитию и распространению компьютеров, которые кажутся достаточно разумными. Программы для таких машин варьируются от конвертации человеческой речи в текст до выявления ранних признаков развития слепоты. Искусственный интеллект теперь ведет контроль за качеством на заводах и управляет системами охлаждения дата-центров. Правительства надеются, что он поможет выявлять террористическую пропаганду и удалять ее из интернета. Кроме того, искусственный интеллект занимает центральную роль в разработке автономных автомобилей.

Из 10 самых дорогих компаний в мире 7 говорят, что планируют интегрировать в свои операции искусственный интеллект, который базируется на машинном самообучении. Поэтому умные машины сегодня очень близки к тем, которые были описаны в научной фантастике. Им, безусловно, не хватает осознанной мотивации, которая характерна большинству вымышленных аналогов. Но они все равно порождают страхи и надежды, которые касаются настоящего, а не неопределенного будущего. Поэтому многие люди боятся, что современный искусственный интеллект тоже может превратиться в монстра. Но этот страх связан не столько с тем, что приборы прекратят повиноваться и выполнять инструкции, как с тем, что они как раз будут их выполнять, но каким-то непостижимым образом.

Причина появления такого страха в том, что программы самообучения предусматривают обучение через изменение своих "электронных внутренностей" согласно закономерностям, которые они обнаружили в данных. Фактически они повторяют то, как, по мнению ученых, человеческий мозг учится. Силы связей между битами меняются в компьютерном коде, который разработан вести себя так, как нейроны.

Таким образом, даже разработчик нейронной сети не знает точно, как она работает после прохождения обучения. И как она именно что-то изучила. Разрешить таким машинам управлять критически важной инфраструктурой и принимать решения в медицине означает доверить жизнь людей куску оборудования, которое не известно как на самом деле работает.

Впрочем, если искусственный интеллект сможет как-то объяснить, что и почему он делает, доверие к нему возрастет. А значит он сможет быть более полезным. К тому же, если что-то пойдет не так, собственные объяснения искусственного интеллекта позволят лучше и быстрее провести расследование ошибки.

Ранее Илон Маск заявил о том, что искусственный интеллект является самой большой угрозой, с которой человечество может столкнуться как цивилизация и призвал к жесткому государственному регулированию развития искусственного интеллекта.