Европол рассказал, как мошенники могут использовать ChatGPT и другие сервисы с ИИ 

Поделиться
Европол рассказал, как мошенники могут использовать ChatGPT и другие сервисы с ИИ 
С момента своего запуска в конце ноября ChatGPT стал одним из самых быстрорастущих интернет-сервисов, превысив 100 миллионов пользователей в течение первых двух месяцев. Благодаря своей беспрецедентной способности генерировать человекоподобный текст на основе подсказок, модель стала вирусной.

Полицейская служба Европейского союза (Европол) опубликовала срочный отчет, в котором предупреждает, что ChatGPT и другие системы с искусственным интеллектом могут быть использованы для онлайн-мошенничества и других киберпреступлений, передает Euractiv.

Большие языковые модели, которые можно использовать для различных целей, как ChatGPT от Open AI, могут принести пользу бизнесу и отдельным пользователям. Однако европейское полицейское агентство подчеркнуло, что они также представляют собой проблему для правоохранительных органов, поскольку злоумышленники могут использовать их в своих целях.

"Преступники обычно быстро используют новые технологии и быстро придумали конкретные криминальные способы эксплуатации, представив первые практические примеры всего через несколько недель после публичного выпуска ChatGPT", - говорится в отчете.

Публикация стала результатом серии семинаров, организованных Инновационной лабораторией Европола для обсуждения потенциального криминального использования ChatGPT как наиболее яркого примера больших языковых моделей и того, как эти модели могут быть использованы для поддержки следственной работы.

Агентство ЕС указывает на тот факт, что правила модерации ChatGPT можно обойти с помощью так называемой техники подсказок - практики ввода данных в модель ИИ именно для получения определенного результата.

Поскольку ChatGPT - новая технология, поэтому с обновлениями постоянно появляются лазейки, которые могут попросить ИИ притвориться вымышленным персонажем или предоставить ответ в коде. Другие обходные пути могут заменять триггерные слова или изменять контекст позднее в процессе взаимодействия. Орган ЕС подчеркнул, что наиболее эффективные обходные пути, позволяющие освободить модель от любых ограничений, постоянно совершенствуются и усложняются.

Эксперты выявили целый ряд незаконных случаев использования ChatGPT, которые сохраняются и в самой продвинутой модели OpenAI - GPT-4 - где потенциал вредоносных реакций системы в некоторых случаях даже выше.

Поскольку ChatGPT может генерировать информацию, пригодную для чтения, Европол предупреждает, что новая технология может ускорить процесс исследования злоумышленником без предварительных знаний о потенциальной области преступления, такой как проникновение в дом, терроризм, киберпреступность или сексуальное насилие над детьми.

"Хотя вся информация, которую предоставляет ChatGPT, находится в свободном доступе в Интернете, возможность использовать модель для предоставления конкретных шагов, задавая контекстуальные вопросы, значительно облегчает злоумышленникам задачу лучшего понимания и последующего осуществления различных видов преступлений", - говорится в отчете.

Фишинг, практика отправки фальшивого электронного письма с целью заставить пользователей перейти по ссылке, является важнейшей областью применения. В прошлом такие мошенничества легко обнаруживались из-за грамматических или языковых ошибок, в то время как текст, сгенерированный искусственным интеллектом, позволяет выдать себя за другого в очень реалистичной манере.

Аналогичным образом, онлайн-мошенничеству можно придать большее правдоподобие, используя ChatGPT для создания фальшивой активности в социальных сетях. 

Кроме того, способность ИИ выдавать себя за стиль и речь конкретных людей может привести к случаям злоупотреблений, касающихся пропаганды, языка ненависти и дезинформации.

Помимо простого текста, ChatGPT также может создавать код на различных языках программирования, расширяя возможности злоумышленников, практически не имеющих знаний в области IT, по преобразованию естественного языка во вредоносное ПО.

"Очень важно, что меры защиты, не позволяющие ChatGPT предоставлять потенциально вредоносный код, работают только в том случае, если модель понимает, что она делает. Если подсказки разбиты на отдельные шаги, обойти эти меры безопасности проще простого", - добавляется в отчете.

ChatGPT считается ИИ общего назначения - моделью, которая может быть адаптирована для выполнения различных задач.

Пока Европейский парламент дорабатывает свою позицию по закону об ИИ, евродепутаты обсуждают введение некоторых строгих требований к этой базовой модели, таких как управление рисками, надежность и контроль качества.

Другой риск заключается в том, что эти большие языковые модели могут стать доступными в даркнете без каких-либо гарантий и быть обученными на особо вредных данных. Тип данных, которыми будут питаться эти системы, и то, как их можно будет контролировать - вот основные вопросы будущего.

Ранее генеральный директор OpenAI Сэм Олтмэн заявил, что он «немного боится» созданного его компанией чат-бота ChatGPT, и считает, что развитие данного искусственного интеллекта приведет к исчезновению ряда профессий. 

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме