Мошенники начали активно использовать дипфейк-звонки на телефоны россиян якобы от имени родственников и начальства. Об этом 7 января сообщили «Известия».

ИЗВЕСТИЯ/Эдуард Корниенко

В течение прошлого года количество дипфейк-атак, то есть звонков с использованием видео, созданного с помощью искусственного интеллекта, составило десятки тысяч случаев.

По данным VisionLabs (структура МТС), в новом году количество таких атак может увеличиться в десятки раз. При этом официальные данные не отражают реальный масштаб проблемы.

«На данный момент не существует централизованной системы отслеживания или регистрации всех случаев дипфейк-атак в реальном времени», — заявила представитель VisionLabs Татьяна Дешкина.

Человеку может позвонить «родственник» или «начальник». При этом дипфейк-звонок может быть сгенерирован в режиме реального времени.

Наиболее уязвимыми группами населения являются подростки, женщины и пенсионеры. Зарегистрирован случай, когда пенсионера обманули дипфейком мэра Москвы, чтобы выманить деньги.

«Стандартным примером дипфейк-атак в бизнес-среде является подмена личности руководителя», — отмечает директор компании Ideco Дмитрий Хомутов.

Убытки от кибермошенничества в 2024 году прогнозируются до 300 млрд рублей. Ущерб от дипфейков оценить трудно, но он значительный, отмечает VisionLabs.

В последние месяцы вследствие активного развития искусственного интеллекта появилось множество программ, помогающих подделать голос и создать фальшивые видеопортреты. Как отметил глава отдела системного администрирования IT-компании Simpl Константин Ильиных, в Telegram могут прислать несуществующее сообщение в формате «кружочка» и обмануть пользователей.

Как сообщила Дешкина, сегодня ряд сложных и качественных алгоритмов дипфейков можно легко найти в открытом доступе. Кроме того, снизился порог входа для генерации подделок. Существуют программы, которые позволяют создавать дипфейки даже людям без минимального опыта программирования.

Основной вид дипфейк-атак — это замена лица, при котором в видеофайле лицо одного человека вставляется вместо другого. Этот вид атаки чаще всего используется в видеозвонках или «кружочках» в мессенджерах.

Также мошенники используют перенос мимики. Под движения губ человека из оригинального видео подставляется другой голос. Кроме того, аферисты используют создание несуществующих лиц для анонимного мошенничества или дезинформации.

Одним из самых распространённых сценариев является отправка сгенерированного изображения, где «родственник» находится в полиции или больнице. Неподготовленный человек может, получив такое сообщение, потерять бдительность и передать мошеннику конфиденциальную информацию.

«Услышав голос близкого человека, якобы просящего о помощи, почти любой из нас потеряет способность критически мыслить и может начать немедленно выполнять указания злоумышленников. Такие звонки создают психологическое давление и нервное напряжение, которые могут довести до противоправных действий, эмоционального истощения», — отметила ведущий юрист Staffcop («Атом безопасность» входит в ГК «СКБ Контур») Ольга Попова.

Чтобы не стать жертвой дипфейк-атак, человеку следует самому перезвонить родственнику, который вышел с ним на связь.

Как сообщало ИА Регнум, в начале января в МВД рассказали о новой мошеннической схеме, применяемой по телефону. Дозвонившись до человека, аферист предлагает ему установить на мобильный телефон приложение, якобы предназначенное для оплаты услуг ЖКХ или для записи на приём к врачу. Если человек соглашается, мошенник получает доступ к его данным.

По данным полиции, одна из самых крупных в 2024 году сумм, переведённых на счета мошенников одним человеком, составила почти 180 млн рублей. Раньше аферисты похищали у людей деньги со счетов и сбережений, теперь они координируют действия своих жертв, уговаривая продавать имущество, брать кредиты и микрозаймы, отметили в МВД.