С недавнего времени искусственный интеллект используется для создания фальшивых видеороликов, которые могут вводить людей в заблуждение. Один из таких примеров произошел с парой из Малайзии, верившей в существование несуществующей канатной дороги.
Искусственный интеллект и фальшивые видеоролики
Недавний инцидент с парой из Малайзии иллюстрирует, как искусственный интеллект создает фальшивые видеоролики, вводя людей в заблуждение. Пара посмотрела видео о канатной дороге Kuak Skyride и решила отправиться в путешествие. Однако по прибытию в место они обнаружили лишь небольшой город и местных жителей, не знающих о существовании такой канатной дороги. "Почему они так поступают с людьми?" - спросила пожилая женщина, осознав, что её мечта обошлась ей в реальность, созданную AI, конкретно инструментом, разработанным Google.
Рост атак с использованием deepfake
Статистика свидетельствует о значительном увеличении использования deepfake-технологий в мошенничестве. За последние три года процент таких атак возрос с 0.1% до 6.5% от всех случаев мошенничества. Это неизменно ведет к реальным последствиям для жертв, как показывает пример 82-летнего пенсионера, потерявшего все свои сбережения после просмотра deepfake-видео с участием Элонa Маска, который рекламировал инвестиционную схему. "Это был он на видео," - отметил Бошамп в интервью.
Влияние на туризм и общество
Туризм уже давно испытывает влияние искусственно созданной реальности, в частности, через социальные сети. Люди теперь посещают известные места в основном ради того, чтобы делать фотографии для Instagram. UNESCO поднимает тревогу, утверждая, что туристы посещают знаковые достопримечательности для создания контента, а не для погружения в культуру и историю.
Случай с парой из Малайзии подчеркивает необходимость критического осмысления информации, которую мы получаем в цифровом мире. Искусственный интеллект продолжает усложнять возможность отличить реальное от фальшивого, что требует от людей большей бдительности.