Мошенники атаковали екатеринбуржцев под видом представителей исследовательских центров. Преступники звонят якобы из-за соцопроса, чтобы записать голос и использовать его для создания дипфейков. Аферисты, чтобы клонировать голос, стараются удержать человека на связи минимум 20 секунд.
— Коллеге недавно позвонили по видеосвязи. Он взял трубку, потому что как раз ждал звонка по работе. Его записали, изображение использовали для создания дипфейка и развели так знакомых на деньги, — отметила екатеринбурженка Татьяна.
Ведущий аналитик компании F6 Евгений Егоров рассказал E1, что уже несколько лет злоумышленники активно применяют технологию голосовых дипфейков, созданных с помощью искусственного интеллекта. Существует множество инструментов для создания поддельных аудио- и видеоматериалов. Причем для этого не требуется особых технических знаний — только специальный софт или даже чат-боты.
— Поддельные аудиосообщения используются в различных мошеннических схемах. Например, злоумышленники могут отправлять их с просьбой одолжить деньги родственникам или коллегам жертвы, а также в групповые чаты. В схемах с фейковыми знакомствами (FakeDate) или с сообщениями от руководителя (FakeBoss) мошенники получают еще больше возможностей для обмана, создавая у жертвы иллюзию общения с реальным человеком, — объяснил Евгений Егоров.
Эксперт добавил, что мошенники также используют искусственный интеллект для создания ответов в диалоге. Они «скармливают» чат-боту переписку конкретного человека, чтобы скопировать его стиль общения.
— Чтобы не стать жертвой мошенников, необходимо перепроверить, действительно ли владелец аккаунта обращается к вам. Для этого можно перезвонить ему по телефону или воспользоваться другим средством связи, — заключил специалист.
— Коллеге недавно позвонили по видеосвязи. Он взял трубку, потому что как раз ждал звонка по работе. Его записали, изображение использовали для создания дипфейка и развели так знакомых на деньги, — отметила екатеринбурженка Татьяна.
Ведущий аналитик компании F6 Евгений Егоров рассказал E1, что уже несколько лет злоумышленники активно применяют технологию голосовых дипфейков, созданных с помощью искусственного интеллекта. Существует множество инструментов для создания поддельных аудио- и видеоматериалов. Причем для этого не требуется особых технических знаний — только специальный софт или даже чат-боты.
— Поддельные аудиосообщения используются в различных мошеннических схемах. Например, злоумышленники могут отправлять их с просьбой одолжить деньги родственникам или коллегам жертвы, а также в групповые чаты. В схемах с фейковыми знакомствами (FakeDate) или с сообщениями от руководителя (FakeBoss) мошенники получают еще больше возможностей для обмана, создавая у жертвы иллюзию общения с реальным человеком, — объяснил Евгений Егоров.
Эксперт добавил, что мошенники также используют искусственный интеллект для создания ответов в диалоге. Они «скармливают» чат-боту переписку конкретного человека, чтобы скопировать его стиль общения.
— Чтобы не стать жертвой мошенников, необходимо перепроверить, действительно ли владелец аккаунта обращается к вам. Для этого можно перезвонить ему по телефону или воспользоваться другим средством связи, — заключил специалист.
Андрей Мещеряков
Мне как-то с "банка" по Ватсапп звонили, года два назад. Ну ежу же понятно, что разводилово
Андрей Мещеряков
Звонили мне естественно с телеграмма