UA / RU
Підтримати ZN.ua

Розвиток ШІ може призвести до зростання напруженості між країнами – колишній голова Google

Ерік Шмідт вважає, що штучний інтелект може бути небезпечнішим за ядерну зброю.

Американський бізнесмен, колишній голова компанії Google Ерік Шмідт, виступаючи на Aspen Security Forum, закликав забезпечити контроль над штучним інтелектом. Він також заявив, що розробка таких технологій може призвести до зростання напруженості у світі, порівнявши ситуацію з часами Холодної війни.

Читайте також: Google звільняє інженера за твердження про те, що штучний інтелект має почуття

«Ще 20 років тому ми були дуже наївними, я був наївним, щодо впливу того, що ми робимо. Але тепер я розумію, що інформація – це все, вона має неймовірну силу… Уряди та інші інститути мають більше тиснути на технологічну галузь, щоб такі розробки відповідали нашим цінностям. Ми можемо дискутувати про те, як це можна зробити, але потрібне обговорення», - заявив Шмідт.

Він також додав, що зараз вести переговори, зокрема, щодо розвитку ШІ дуже важко.

«По-перше, необхідні технології, які дозволять зрозуміти, що відбувається, а також потрібна поінформованість про інший бік… Наприклад, ми вирішили вести переговори з Китаєм про сюрпризи, пов'язані з ШІ. Як це зробити? Хто в уряді США працюватиме з нами? І все ще гірше з китайського боку: кого ми покличемо? Постарайтеся назвати цю людину, я не можу. Ми не готові до переговорів, яких потребуємо», - заявив Шмідт.

Бізнесмен провів паралелі з 50-60 роками минулого століття, коли у світі існувало правило "відсутності сюрпризів" щодо ядерних випробувань.

«Це приклад балансу довіри чи відсутності довіри, це правило «без несподіванок». Я дуже стурбований тим, що ставлення США до Китаю як до корумпованого, комуністичного чи якогось ще, а китайське ставлення до Америки як до невдахи… дозволить людям сказати: «Боже мій, вони щось замишляють», а потім породить якогось роду невизначеність. Створить ситуацію, в якій будь-яка ваша дія чи підготовка до чогось спровокує інший бік. Зараз ніхто над цим не працює, але ШІ досить впливовий, щоб мати таку силу», - додав Шмідт.

Раніше вчені заявили про те, що роботи зі штучним інтелектом схильні приймати сексистські та расистські рішення.