Новый год – пора мошенников: они стали еще опаснее

Эксперт рассказал, как мошенники используют нейросети в новогодние праздники.
Новый год – пора мошенников: они стали еще опаснее
Freepik

Новогодние праздники – время радости, подарков и... повышенной активности мошенников. В атмосфере всеобщего волнения и предпраздничной суеты они становятся еще изощреннее, используя новейшие технологии, включая нейросети, для создания убедительных ловушек для доверчивых граждан.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Директор по продукту компании FABULA AI Родион Кадыров рассказал изданию «Газета.Ru» о том, как мошенники применяют искусственный интеллект и как не стать их жертвой.

Freepik

Главный козырь в рукаве цифровых аферистов – дипфейк. Эта технология, основанная на нейросетях, позволяет создавать поразительно реалистичные видео и аудио сообщения, имитируя голоса и внешность людей. Например, вам звонит якобы мама и просит срочно перевести деньги на лечение или помочь в сложной ситуации. Вы узнаете ее голос, видите ее лицо на экране смартфона, и у вас не возникает ни тени сомнения. Однако это может быть ловушка.

«Мошенникам достаточно всего 15 секунд вашей аудиозаписи, чтобы нейросеть создала "цифровой слепок" вашего голоса и смогла генерировать любые фразы. Такие дипфейк-сообщения распространяются через мессенджеры, например, Telegram, и социальные сети, охват потенциальных жертв огромен», — предупредил эксперт.

Еще одна технология, которую активно используют мошенники – Face Swap. Она позволяет «приклеить» лицо одного человека к видео другого. Например, мошенники могут взять фотографию вашего родственника из социальных сетей и создать видео, где он якобы обращается к вам с просьбой. Вы видите знакомое лицо, слышите голос, синтезированный нейросетью, и ваша бдительность усыпляется. Такие видео часто распространяются через Telegram и другие платформы.

Но технологии – это еще не все. Мошенники мастерски владеют приемами социальной инженерии, играя на человеческих эмоциях. Они могут представляться сотрудниками банков, полиции, служб поддержки, давя на вас, требуя срочных действий. В состоянии стресса или волнения люди склонны совершать ошибки, и этим пользуются мошенники. Особенно уязвимы те, кто не очень хорошо разбирается в современных технологиях, и пожилые люди.

Специалист по кибербезопасности советует быть предельно осторожными и не доверять слепо всем входящим сообщениям и звонкам.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Перепроверяйте информацию, связывайтесь с родственниками и друзьями по другим каналам связи, чтобы убедиться, что с ними все в порядке. Помните, что банки и службы поддержки обычно не звонят первыми и не требуют срочно переводить деньги или сообщать конфиденциальные данные», — напомнил Родион Кадыров.

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По его словам, при получении подозрительного видеосообщения, важно обратить внимание на качество изображения, мимику, голос. Резкие движения головы, неестественная мимика, монотонный голос – все это может быть признаками дипфейка.

В этом случае полезно будет задать неожиданные вопросы, на которые ИИ вряд ли сможет дать адекватный ответ. Если вы все же сомневаетесь, обратитесь в службу поддержки компании, от имени которой действуют мошенники.