В сентябре 2025 года мошенники начали активно использовать технологии глубоких фейков для реализации фальшивых инвестиционных схем. По мнению авторов публикации, вызывает обеспокоенность тот факт, что современные технологии могут быть использованы в корыстных целях, ставя под угрозу финансовую безопасность инвесторов.
AI-сгенерированное видео с подделкой голоса
Одним из ярких примеров стало AI-сгенерированное видео с подделкой голоса и внешности политического деятеля Гонконга, Джона Ли. В этом видео он якобы рекламировал инвестиционную схему, обещающую высокие доходы, что привлекло внимание многих доверчивых граждан.
Предупреждение экспертов
Эксперты предупреждают, что подобные технологии значительно увеличивают доверие к фальшивым инвестиционным предложениям. Инвесторы должны быть особенно внимательны и критически относиться к информации, которую они получают, особенно если она касается финансовых вложений. В условиях растущих угроз со стороны мошенников важно развивать навыки распознавания фейков и проверять источники информации.
На фоне растущих угроз со стороны мошенников, связанных с фальшивыми инвестиционными схемами, на рынке токенов Solana наблюдается снижение участия розничных трейдеров, что указывает на переход к более зрелой фазе экосистемы. Читать далее