Новый год – пора мошенников: они стали еще опаснее
Новогодние праздники – время радости, подарков и... повышенной активности мошенников. В атмосфере всеобщего волнения и предпраздничной суеты они становятся еще изощреннее, используя новейшие технологии, включая нейросети, для создания убедительных ловушек для доверчивых граждан.
Директор по продукту компании FABULA AI Родион Кадыров рассказал изданию «Газета.Ru» о том, как мошенники применяют искусственный интеллект и как не стать их жертвой.
Главный козырь в рукаве цифровых аферистов – дипфейк. Эта технология, основанная на нейросетях, позволяет создавать поразительно реалистичные видео и аудио сообщения, имитируя голоса и внешность людей. Например, вам звонит якобы мама и просит срочно перевести деньги на лечение или помочь в сложной ситуации. Вы узнаете ее голос, видите ее лицо на экране смартфона, и у вас не возникает ни тени сомнения. Однако это может быть ловушка.
«Мошенникам достаточно всего 15 секунд вашей аудиозаписи, чтобы нейросеть создала "цифровой слепок" вашего голоса и смогла генерировать любые фразы. Такие дипфейк-сообщения распространяются через мессенджеры, например, Telegram, и социальные сети, охват потенциальных жертв огромен», — предупредил эксперт.
Еще одна технология, которую активно используют мошенники – Face Swap. Она позволяет «приклеить» лицо одного человека к видео другого. Например, мошенники могут взять фотографию вашего родственника из социальных сетей и создать видео, где он якобы обращается к вам с просьбой. Вы видите знакомое лицо, слышите голос, синтезированный нейросетью, и ваша бдительность усыпляется. Такие видео часто распространяются через Telegram и другие платформы.
Но технологии – это еще не все. Мошенники мастерски владеют приемами социальной инженерии, играя на человеческих эмоциях. Они могут представляться сотрудниками банков, полиции, служб поддержки, давя на вас, требуя срочных действий. В состоянии стресса или волнения люди склонны совершать ошибки, и этим пользуются мошенники. Особенно уязвимы те, кто не очень хорошо разбирается в современных технологиях, и пожилые люди.
Специалист по кибербезопасности советует быть предельно осторожными и не доверять слепо всем входящим сообщениям и звонкам.
«Перепроверяйте информацию, связывайтесь с родственниками и друзьями по другим каналам связи, чтобы убедиться, что с ними все в порядке. Помните, что банки и службы поддержки обычно не звонят первыми и не требуют срочно переводить деньги или сообщать конфиденциальные данные», — напомнил Родион Кадыров.
По его словам, при получении подозрительного видеосообщения, важно обратить внимание на качество изображения, мимику, голос. Резкие движения головы, неестественная мимика, монотонный голос – все это может быть признаками дипфейка.
В этом случае полезно будет задать неожиданные вопросы, на которые ИИ вряд ли сможет дать адекватный ответ. Если вы все же сомневаетесь, обратитесь в службу поддержки компании, от имени которой действуют мошенники.