Сгенерированная ИИ фотография взрыва у Пентагона повлияла на фондовый рынок

Поделиться
Сгенерированная ИИ фотография взрыва у Пентагона повлияла на фондовый рынок В соцсетях распространили фотографию взрыва у Пентагона © depositphotos/Jeremyarnica
Ее опубликовали аккаунты в Twitter с миллионами подписчиков.

В понедельник, 22 мая, в социальных сетях появилась фейковая фотография взрыва у Пентагона. Эта публикация привела к падению акций на фондовом рынке. Вероятно, это первый случай в истории, когда сгенерированное искусственным интеллектом фото повлияло на рынок, сообщает Bloomberg.

Впервые фотография появилась на Facebook. На ней был изображен столб дыма, который поднимается у здания Пентагона. Вскоре снимок проник в Twitter, где его начали распространять аккаунты с миллионами подписчиков и синими галочками верификации, которые теперь доступны подписчиком платной версии соцсети. Среди аккаунтов, которые опубликовали фото, - российский пропагандистский ресурс RT и сайт финансовых новостей ZeroHedge.

В Пентагоне на запрос Bloomberg ответили, что сообщений о каких-либо инцидентах у здания военного ведомства не поступало. Соответствующее заявление сделали и в полиции.

Пользователи соцсетей начали выдвигать предположения, что фотографию мог сгенерировать искусственный интеллект. Расследователь Bellingcat Ник Уотерс заявил, что «шок» от сообщения о взрыве у Пентагона побудил его изучить фото. Он отметил странности в фасаде здания, а также то, что забор сливается с сдерживающий ограничитель. Кроме того, Уотерс обратил внимание на то, что никаких других фото или видео взрыва в соцсетях не появилось.

После этого аккаунты в Twitter начали удалять фото, а ZeroHedge не только удалил снимок, но и написал, что он был фейковым.  Но в момент наиболее активного распространения фото по сети фондовый индекс S&P 500 снизился примерно на 0,3%, но затем быстро восстановился.

Кто и зачем создал и распространил изображение, неизвестно. Аккаунт, который опубликовал его на Facebook, отметили как распространяющий ложную информацию.

Предположение о том, что оно было сгенерировано ИИ, вызывает опасения о том, что новые технологии создадут условия для создания фотографий и другого контента, который будет использоваться для распространения дезинформации.

Ранее ученые выяснили, что искусственный интеллект может создать синтетические лица людей, которые кажутся более правдоподобными, чем настоящие, и вызывают больше доверия. Созданные нейросетью лица смогли обмануть даже опытных наблюдателей. 

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме