В понедельник, 22 мая, в социальных сетях появилась фейковая фотография взрыва у Пентагона. Эта публикация привела к падению акций на фондовом рынке. Вероятно, это первый случай в истории, когда сгенерированное искусственным интеллектом фото повлияло на рынок, сообщает Bloomberg.
Впервые фотография появилась на Facebook. На ней был изображен столб дыма, который поднимается у здания Пентагона. Вскоре снимок проник в Twitter, где его начали распространять аккаунты с миллионами подписчиков и синими галочками верификации, которые теперь доступны подписчиком платной версии соцсети. Среди аккаунтов, которые опубликовали фото, - российский пропагандистский ресурс RT и сайт финансовых новостей ZeroHedge.
В Пентагоне на запрос Bloomberg ответили, что сообщений о каких-либо инцидентах у здания военного ведомства не поступало. Соответствующее заявление сделали и в полиции.
Пользователи соцсетей начали выдвигать предположения, что фотографию мог сгенерировать искусственный интеллект. Расследователь Bellingcat Ник Уотерс заявил, что «шок» от сообщения о взрыве у Пентагона побудил его изучить фото. Он отметил странности в фасаде здания, а также то, что забор сливается с сдерживающий ограничитель. Кроме того, Уотерс обратил внимание на то, что никаких других фото или видео взрыва в соцсетях не появилось.
Confident that this picture claiming to show an "explosion near the pentagon" is AI generated.
— Nick Waters (@N_Waters89) May 22, 2023
Check out the frontage of the building, and the way the fence melds into the crowd barriers. There's also no other images, videos or people posting as first hand witnesses. pic.twitter.com/t1YKQabuNL
После этого аккаунты в Twitter начали удалять фото, а ZeroHedge не только удалил снимок, но и написал, что он был фейковым. Но в момент наиболее активного распространения фото по сети фондовый индекс S&P 500 снизился примерно на 0,3%, но затем быстро восстановился.
Кто и зачем создал и распространил изображение, неизвестно. Аккаунт, который опубликовал его на Facebook, отметили как распространяющий ложную информацию.
Предположение о том, что оно было сгенерировано ИИ, вызывает опасения о том, что новые технологии создадут условия для создания фотографий и другого контента, который будет использоваться для распространения дезинформации.
Ранее ученые выяснили, что искусственный интеллект может создать синтетические лица людей, которые кажутся более правдоподобными, чем настоящие, и вызывают больше доверия. Созданные нейросетью лица смогли обмануть даже опытных наблюдателей.