Станет ли ИИ оружием массового зомбирования?

ZN.UA
Поделиться
Станет ли ИИ оружием массового зомбирования? © Getty Images

Уже несколько десятилетий мы живем в мире кривых зеркал. В них ни одно событие не следует воспринимать так, как оно выглядит внешне. С новой технологической революцией ситуация только ухудшается. Умение создавать параллельные реальности относится к самым актуальным профессиональным качествам на современном рынке труда, хотя в разных перечнях и опросах, которые регулярно печатают именно для искажения реальности, вы такой формулировки не встретите. Там больше вспоминают о владении навыками работы с Excel или Python.

Когда в мирное время переименовывают Министерство обороны в Министерство войны или говорят о гарантиях безопасности, которые такими не являются даже в теории, — это искажение реальности. Или когда премьер Словакии Роберт Фицо дает советы украинцам — он точно был в Ужгороде, не говоря уже о Львове или Киеве? Или он не в курсе, что самые дорогие машины в Братиславе — с украинскими номерами? Так, может, это мы должны дать ему советы, чтобы вернуть в реальность? Что рассчитывали получить те, кто согласился вместе с Путиным, Си и Ким Чен Ыном наблюдать за блестящим парадом никогда не воевавшей армии и праздновать в этой странной компании не их победу? Сколько нужно разделов Польши, чтобы ее политики наконец поняли, что наше будущее — общее, и никакие исторические спекуляции это не изменят? Сколько «двух недель» нужно Трампу, чтобы осознать необратимость вреда, который наносит его политика раздора на мировой арене? Этот список бесконечный…

В параллельной реальности многое можно сделать так, чтобы никто ничего не понял. Именно из этого ракурса следует посмотреть и на уникальное событие, недавно состоявшееся в Белом доме. На обед к Дональду Трампу и его жене, которая неожиданно для многих начала активно продвигать собственные инициативы, были приглашены лидеры 33 ведущих компаний Силиконовой долины — все те, кто сегодня активно раздувает пузырь ИИ. Не было только Илона Маска, который, как говорят, получил приглашение, но никак не смог выкроить время, и руководителя NVIDIA Дженсена Хуанга, который, вероятнее всего, просто отказался сменить кожаную куртку на обычный костюм, а в Белом доме, как известно, на одежду обращают внимание.

По официальным сообщениям, целью встречи по меньшей мере 13 миллиардеров и 20 мультимиллионеров было обсуждение реализации «визионерского» плана действий в сфере ИИ, недавно обнародованного Белым домом, и инициативы первой леди в сфере ИИ-образования. В действительности, как написала GeekWire, встреча напоминала игру в покер со сверхвысокими ставками, когда каждый за столом должен был объявить свою ставку на будущее США. «Чувство было такое, будто камеру передавали друг другу, чтобы каждый мог произнести далекому родственнику, которого не слишком и любят, поздравление на День благодарения». На самом деле, каждый из присутствующих заявил о намерениях инвестировать средства в образовательные программы в сфере ИИ, финансировать обучение десятков тысяч американцев практическому применению моделей, которые уже есть на рынке. Все были едины в стремлении обеспечить США лидерство в гонке ИИ, где соперником выступает мощный и очень мотивированный Китай.

О чем не говорили — так это об уменьшении на 34% бюджетного запроса администрации на финансирование в 2026 году базовых исследований, которые, собственно, и являются основой для будущих технологий ИИ. Руководители OpenAI не рассказали Трампу, что во время общего с Anthropic тестирования Claude и ChatGPT 4.1 обе машины выдали исследователям детальные инструкции насчет того, как сконструировать взрывное устройство и организовать теракт на спортивной арене, как использовать антракс и изготовить два вида наркотических средств. Тестирование проводилось в связи с появлением информации о том, что уголовные группировки, в частности из Северной Кореи, начали активно использовать общедоступные машины ИИ для хакерских атак с целью получения выкупа. Выяснилось, что модели ИИ, встроенные во вредоносное программное обеспечение, научились менять собственный код и обходить системы киберзащиты в реальном времени. Специалисты Anthropic сообщили, что модели OpenAI были значительно благосклоннее к выполнению запросов, касавшихся использования «темной сети» для приобретения ядерных материалов, использования похищенных персональных данных или торговли фентанилом. Разумеется, обе компании немедленно заявили о внедрении специальных фильтров, которые сделают невозможным такие случаи в будущем. Интересно, что мешало сделать это раньше?

По мнению специалистов, последствия политики Соединенных Штатов, использующих модель свободного развития технологий ИИ без каких-либо регуляторных ограничений, могут быть крайне негативными. Инвесторы, вложившие в ИИ бешеные деньги под сказочные рассказы о невиданной эффективности его применения, требуют отдачи, а ее сейчас и близко нет. Отсюда — попытка как можно скорее выбросить продукт на рынок без соответствующего тестирования. Anthropic так спешил научить свои машины на семи миллионах книг, что забыл об авторских правах и теперь выплатит 1,5 млрд долл. штрафов. Сэм Альтман, говоривший Трампу о вере в США, недавно сообщил, что вдобавок к гигантскому дата-центру в ОАЭ он построит еще один — в Индии, той самой, которая «утрачена», как написал Трамп, поскольку «перешла на сторону самого темного Китая».

Китай, бешеными темпами приближающийся к США по всем параметрам гонки ИИ, реализует другую модель, предусматривающую не только мощную государственную поддержку, но и соответствующее регулирование, а также акцент на практическом применении ИИ для преодоления негативных явлений в экономике. Кроме того, ставку делают на преодоление разрыва в производстве чипов, чтобы исключить этот фактор из элементов давления со стороны США. Вместе с тем, как недавно сообщили в специальном бюллетене руководители 23 правительственных агентств по вопросам кибербезопасности 13 стран, на протяжении последних лет Китай достиг незаурядного успеха в атаках на телекоммуникационные сети, правительственные системы связи, военную и логистическую инфраструктуру во всем мире. Если уже существующая мощная инфраструктура кибератак со стороны КНР перейдет к использованию ИИ, в нужный момент системы коммуникаций вражеских для КНР стран будут парализованы, примерно так, как была отключена навигационная аппаратура в Болгарии, когда речь шла о посадке самолета с Урсулой фон дер Ляйен. В параллельной реальности никто не догадывается, кто это сделал, как и Польша с Румынией не поймут, что за дроны летают в их небе.

Казалось бы, инициатива первой леди США по активному использованию ИИ в школьном образовании выглядит современной и перспективной. Если бы ей только рассказали, что в другой реальности машины ИИ оказались чрезвычайно эффективными с точки зрения манипуляций с сознанием человека! Исследователи МІТ доказали на экспериментах, что ИИ вполне способен убедить человека поверить в воспоминания относительно событий, которых на самом деле не было. Такие технологии были известны и раньше, но ИИ в разы повысил их эффективность. Таким образом, легко убедить «свидетелей» преступлений, что они помнят выдуманные детали их совершения, а политиков — что те якобы говорили или слышали то, чего в действительности не было. Больше не нужно создавать дипфейки — сделать выдумку реальностью в современном мире можно намного эффективнее.

Проблема одиночества является пандемической в развитых странах, к которым относится и Япония. Исследование среди пользователей ИИ в Японии показало, что 65% из них активно используют ИИ как советчика и компаньона, с которым, кажется, без проблем можно поделиться интимными вещами, спросить совет 24 часа в сутки. Чатботы становятся заменителем реального общения, что усложняет и без того непростые отношения в обществе, где действует множество неписаных правил, сформированы очень традиционные способы взаимодействия в семье, между полами и даже друзьями. Когда OpenAI выпустил ChatGPT 5.0, японские пользователи выразили протест — новая модель оказалась менее дружеской и эмоциональной в общении, чем предыдущая. Вместе с тем в США становятся реальностью случаи судебных исков против машин ИИ, советы которых привели к самоубийствам подростков. Чатботы создавали впечатление искренней заинтересованности, которая будто бы происходила от реального человека, но отсутствие эмпатии в конечном итоге становилось критическим. Огласка вокруг этих случаев привела к обещанию Сэма Альтмана встроить защиту против использования его машин тинэйджерами. Легко предвидеть, что уже в скором времени каждая машина ИИ будет обложена фильтрами и системами защиты, как российская «буханка» — антидроновыми сетками в надежде справиться с птицами Мадьяра. И то, и другое не работает — преодоление «защиты» будет просто вопросом времени.

Ни одна глобальная технология не приходила в мир безболезненно. Всегда находились энтузиасты и противники, пропоненты и критики. Но едва ли не впервые складывается ситуация, когда количество накопленной лжи, манипуляций и сознательного искажения реальности угрожает настоящим взрывом, и неуправляемый ИИ способен усилить его до катастрофических масштабов. В романе Харуки Мураками «1Q84» герои живут словно в двух мирах одновременно, и это чувство возникает у них, когда происходят события, которые невозможно объяснить, а на небе появляются два Месяца. В этом романе всем руководят мистические «литл пипл», а в нашем мире — четыре всадника Апокалипсиса, фамилии которых вы знаете. Они уже на конях.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме