Мошенники для хищения денег стали чаще использовать новый инструмент обмана – дипфейк-технологии. С помощью нейросети аферисты создают реалистичное видеоизображение человека, а потом выманивают деньги у его друзей и родственников. В Отделении Банка России по Оренбургской области предупредили жителей региона о возможных угрозах.
Мошенники взламывают чужой аккаунт, берут из него фотографии, видео- и аудиозаписи человека, а искусственный интеллект анализирует черты лица, движения, голос и создает дипфейк – цифровой образ, максимально похожий на свой прототип. Сгенерированный образ мошенники рассылают знакомым и родным человека через мессенджеры или социальные сети. В коротком видеоролике виртуальный герой рассказывает, что оказался в беде, например, серьезно заболел, попал в аварию или лишился работы, и просит перевести деньги на определенный счет. На самом деле это счет мошенников. При этом злоумышленники могут создавать дипфейки работодателей, сотрудников государственных органов, известных личностей, популярных блогеров.
-Будьте осторожны при получении от своего знакомого голосового или видеосообщения с просьбой о финансовой помощи, его аккаунт могли взломать. Не спешите переводить деньги, обязательно перепроверьте информацию. Распознать дипфейк можно по неестественной монотонной речи собеседника, дефектам звука и видео, несвойственной мимике. Если нет возможности позвонить и уточнить, действительно ли человеку нужна помощь, задайте в сообщении личный вопрос, ответ на который знает только ваш знакомый, – пояснили в Отделении Банка России по Оренбургской области.
Главное фото: Банки. ру