С развитием технологий искусственного интеллекта открываются новые возможности, но возрастает и риск его злоупотребления. Отчёт Google раскрывает детали таких угроз в отношении ИИ-бота Gemini.
Неудачные попытки взлома Gemini
Google заявляет, что хотя злоумышленники пытались взломать ИИ-бота Gemini, компании не удалось выявить продвинутые атаки в этом направлении. Попытки включали перефразирование запросов и многократные отправки, однако все они завершились неудачей. Взлом ИИ часто направлен на выполнение запрещенных задач, таких как утечка информации и предоставление небезопасного контента.
Использование Gemini государственными APT-группами
Google сообщает, что защищаемые государством APT-группы пытались использовать Gemini в своих вредоносных действиях для сбора разведывательной информации, исследования уязвимостей и создания кодов и сценариев. Были также замечены попытки включения пост-уголовных активностей, таких как уклонение от защиты. Например, группы из Ирана использовали ИИ для фишинговых кампаний и создания контента в сфере кибербезопасности.
Отчёт о кибератаках со стороны APT-групп из Ирана, Китая и Северной Кореи
По сообщениям, группы из Китая использовали Gemini для отладки кода и изучения способов проникновения в целевые сети. APT-группы из Северной Кореи использовали ИИ по всем стадиям своего нападения, от исследования до разработки, включая изучение стратегически важных тем. По данным Chainalysis, северокорейские хакеры украли $1,3 млрд в 2024 году.
Повышенные усилия злоумышленников по использованию ИИ для своих целей требуют более совершенной защиты и инновационных подходов к его безопасности. Отчёты Google подчеркивают значимость этих угроз и необходимость бдительности.