В понедельник, 22 мая, в социальных сетях появилась фейковая фотография взрыва у Пентагона. Эта публикация привела к падению акций на фондовом рынке. Вероятно, это первый случай в истории, когда сгенерированное искусственным интеллектом фото повлияло на рынок, сообщает Bloomberg.
Впервые фотография появилась на Facebook. На ней был изображен столб дыма, который поднимается у здания Пентагона. Вскоре снимок проник в Twitter, где его начали распространять аккаунты с миллионами подписчиков и синими галочками верификации, которые теперь доступны подписчиком платной версии соцсети. Среди аккаунтов, которые опубликовали фото, - российский пропагандистский ресурс RT и сайт финансовых новостей ZeroHedge.
В Пентагоне на запрос Bloomberg ответили, что сообщений о каких-либо инцидентах у здания военного ведомства не поступало. Соответствующее заявление сделали и в полиции.
Пользователи соцсетей начали выдвигать предположения, что фотографию мог сгенерировать искусственный интеллект. Расследователь Bellingcat Ник Уотерс заявил, что «шок» от сообщения о взрыве у Пентагона побудил его изучить фото. Он отметил странности в фасаде здания, а также то, что забор сливается с сдерживающий ограничитель. Кроме того, Уотерс обратил внимание на то, что никаких других фото или видео взрыва в соцсетях не появилось.
После этого аккаунты в Twitter начали удалять фото, а ZeroHedge не только удалил снимок, но и написал, что он был фейковым. Но в момент наиболее активного распространения фото по сети фондовый индекс S&P 500 снизился примерно на 0,3%, но затем быстро восстановился.
Кто и зачем создал и распространил изображение, неизвестно. Аккаунт, который опубликовал его на Facebook, отметили как распространяющий ложную информацию.
Предположение о том, что оно было сгенерировано ИИ, вызывает опасения о том, что новые технологии создадут условия для создания фотографий и другого контента, который будет использоваться для распространения дезинформации.
Ранее ученые выяснили, что искусственный интеллект может создать синтетические лица людей, которые кажутся более правдоподобными, чем настоящие, и вызывают больше доверия. Созданные нейросетью лица смогли обмануть даже опытных наблюдателей.