Политика должна убеждать, но ей на пятки всегда наступала пропаганда. Агитаторы перекручивают, преувеличивают и придумывают. Они транслируют ложь и делают это всеми доступными средствами.
Когда-то теории заговора против вакцин распространялись с помощью брошюр, а не подкастов. За столетие до COVID-19 противники масок в эпоху испанского гриппа тоже проводили дезинформационную кампанию. Они посылали фейковые сообщения от генерального хирурга по телеграфу. Поскольку люди не ангелы, выборы никогда не были свободны от лжи и ошибочных убеждений.
«Но в то время, когда мир готовится к ряду голосований в 2024 году, кое-что новое вызывает большую обеспокоенность. В прошлом дезинформация всегда создавалась людьми. Достижения в области генеративного искусственного интеллекта (ИИ) с моделями, которые могут писать сложные эссе и создавать реалистичные изображения на основе текстовых подсказок, открывают путь к синтетической пропаганде», - пишет The Economist.
Опасения состоят в том, что дезинформационные кампании могут получить сверхмощный заряд в 2024 году, именно тогда, когда страны с совокупным населением около 4 миллиардов человек, включая США, Великобританию, Индию, Индонезию, Мексику и Тайвань, готовятся голосовать. Стоит ли этим странам волноваться?
Важно четко понимать, что именно изменяют и не изменяют такие инструменты генерации текстов, как ChatGPT. Еще до их появления дезинформация уже была проблемой в демократических странах. Едкое представление о том, что президентские выборы в США в 2020 году были сфальсифицированы, привело протестующих в Капитолий 6 января. Однако его распространяли Дональд Трамп, республиканские элиты и консервативные СМИ, используя традиционные средства. Активисты BJP в Индии распространяли сплетни в WhatsApp. Пропагандисты Коммунистической партии Китая передают тезисы на Тайвань через, казалось бы, легитимные СМИ. Всё это делается без использования инструментов генеративного ИИ.
«Что могут изменить генераторы текстов в 2024 году? Во-первых, количество дезинформации: если объем чепухи умножить на 1000 или 100 000, это может убедить людей проголосовать по-другому. Второй пункт касается качества. Гиперреалистические фейки могут повлиять на избирателей еще до того, как фальшивые аудио-, фото- и видеоматериалы будут опровергнуты», – пишет The Economist.
Третье беспокойство – это микротаргетинг. С помощью ИИ избиратели могут быть обрушены высоко персонализированной пропагандой в больших масштабах. Сети пропагандистских ботов будет труднее выявить, чем нынешние дезинформационные усилия. Доверие избирателей к своим согражданам, которое в Америке снижалось десятилетиями, может пострадать, поскольку люди стали сомневаться во всем.
Это вызывает беспокойство, но есть основания полагать, что ИИ не разрушит 2500-летний эксперимент человечества с демократией.
«Многие думают, что другие более доверчивы, чем они сами. На самом деле избирателей трудно убедить, особенно в таких важных политических вопросах, как, например, кого они хотят видеть президентом», – говорится в статье.
Многомиллиардная индустрия предвыборных кампаний в Америке, которая использует людей для убеждения избирателей, может спровоцировать лишь незначительные изменения в их поведении.
Инструменты для создания правдоподобных фейковых изображений и текстов существуют уже несколько десятилетий. Генеративный искусственный интеллект может быть технологией, экономящей рабочую силу для ферм интернет-троллей. Но вряд ли такие фермы страдали от производственных ограничений в генерировании дезинформации. Новые алгоритмы генерации изображений впечатляют, но без человеческого контроля они все еще склонны создавать изображения людей с шестью пальцами на каждой руке, что делает производство персонализированных глубоких фейков отдаленной перспективой.
«Даже если бы эта тактика с использованием искусственного интеллекта оказалась эффективной, ее вскоре взяли бы на вооружение многие заинтересованные стороны. Кумулятивный эффект этих операций влияния сделал бы социальные сети еще более какофоническими и непригодными для использования. Трудно доказать, что недоверие превращается в систематическое преимущество одной стороны над другой», – говорится в статье.
Платформы социальных медиа, где распространяется дезинформация, и фирмы, занимающиеся искусственным интеллектом, говорят, что они уделяют внимание рискам. Компания OpenAI, разработавшая Chatgpt, заявляет, что будет следить за использованием, чтобы попытаться выявить операции политического влияния. Высокотехнологичные платформы, критикуемые за распространение дезинформации во время выборов 2016 года и за то, что они удалили слишком много информации в 2020 году, стали лучше обнаруживать подозрительные страницы. Хотя они стали не очень охотно проверять правдивость контента, созданного реальными людьми.
Некоторые в США призывают к системе экстремального регулирования типа китайской. Там алгоритмы искусственного интеллекта должны быть зарегистрированы в государственном органе и каким-то образом олицетворять основные социалистические ценности. Такой жесткий контроль разрушил бы преимущество, которое Америка имеет в ИИ-инновациях.
Технологический детерминизм, списывающий все слабости людей на инструменты, которыми они пользуются, кажется соблазнительным. Но он также ложен. Хотя важно помнить о потенциале генеративных ИИ-технологий для подрыва демократии, паника из-за этого кажется неоправданной. До технологического прогресса последних двух лет люди были вполне способны передавать друг другу всевозможные деструктивные и ужасающие идеи.
«Американская президентская кампания 2024 года будет омрачена дезинформацией о верховенстве права и честности выборов. Но ее родоначальником будет не что-то новомодное вроде ChatGPT. Это будет Дональд Трамп», – прогнозирует The Economist.