В новом отчете Google поднимается тревожная тема использования искусственного интеллекта в киберпреступности. Государственные хакеры все активнее применяют большие языковые модели для создания фишинговых схем и разработки вредоносного ПО, что ставит под угрозу безопасность пользователей в интернете. Из анализа следует, что ситуация вызывает определённую тревогу.
Угрозы от больших языковых моделей
Согласно отчету, использование больших языковых моделей (LLMs) позволяет злоумышленникам генерировать гиперперсонализированные фишинговые сообщения, которые могут обмануть даже самых опытных пользователей. Это делает фишинговые атаки более сложными для выявления и предотвращения, что представляет собой серьезную угрозу для кибербезопасности.
Автоматизация кибератак с помощью ИИ
Эксперты подчеркивают, что автоматизация разработки вредоносного ПО с помощью ИИ значительно увеличивает масштаб и скорость кибератак. В результате компании и организации должны пересмотреть свои стратегии защиты и адаптироваться к новым вызовам, связанным с использованием искусственного интеллекта в киберугрозах.
Недавно BBVA присоединилась к консорциуму Qivalis для разработки евро-стейблкоина, что подчеркивает активные усилия финансовых институтов в сфере цифровых активов. Узнайте подробнее о данном событии здесь.








