Мошенники начали воровать деньги россиян с помощью фейковых видео с лицами звёзд. Об этом "РИА Новости" рассказали в компании "Инфосистемы Джет", работающей в сфере защиты информации.
"Deep fake — это фейковые видео с наложением лиц и голосов известных людей на видео различного содержания с применением технологий Deep Learning (нейронных сетей). Эта технология позволяет заменить движения губ и речь человека на видео. Обычному пользователю довольно сложно определить подобные фейки, и многие принимают такие шутки за чистую монету", — пояснили в компании.
Например, в интернете распространялось видео с использованием образа Дмитрия Нагиева. Злоумышленник по видом шоумена приглашал пользователей перейти по ссылке, чтобы получить приз.
"Такие сайты обычно перестают отвечать через пару дней, потому что попадают в чёрные списки мошеннических. Но злоумышленники запускают новые сайты и новую рекламу, поэтому пока сложно судить, сколько именно пострадало пользователей", — рассказали в "Инфосистемы Джет".
Отличить фейковые видео можно по нескольким признакам, объяснили в компании. Если персонаж ролика не моргает, его глаза всё время открыты и тени на лице не меняются при смещении источника освещения, то скорее всего вы столкнулись с deep fake. Своеобразными сигналами также могут быть разная чёткость изображения в одном видео или наличие шлейфов вокруг головы героя во время резких движений.