Мы не раз писали о том, что мошенники придумывают на удивление убедительные и нестандартные способы развода доверчивых людей на деньги. Как ни ругай и ни обзывай их, всё равно у мошенников не отнять умения грамотно эксплуатировать изъяны человеческой психики.

В последнее время мошенники становятся всё более грамотными не только в области психологии, но и в IT-сфере. Некоторое время назад в интернете был настоящий бум из поддельных видеороликов, на которых российские знаменитости зазывали зрителей нажать на ссылку под видео и перейти на сайт, на котором можно получить приз в виде крупной суммы денег.

Далее в статье мы более развёрнуто разберём этот вопрос, чтобы вы знали, что не всегда можно переходить по ссылке за крупной суммой денег, даже если это предлагает сделать… Дмитрий Нагиев!

Знаменитости разводят на деньги — О чём речь?

Некоторые мошенники создают убедительные видеоролики, на которые наложены лица и голоса российских знаменитостей. Речь сейчас идёт именно про российский сегмент интернета, хотя в англоязычном интернете подобное тоже есть, только уже с их местными известными людьми. На данный момент такой вид развода встречается не так часто, как это было год назад, но о нём всё равно следует знать.

кадр из видео с нагиевым который предлагает перейти на сайт и получить кучу денек прямо на банковскую карту

На этих видеоподделках знаменитость призывает зрителей нажать на ссылку, перейти на сайт и получить крупный приз (ноутбук, смартфон) или крупную сумму денег. Сайт, на который переходит пользователь, чаще всего представляет из себя обыкновенный лохотрон по типу тех, что мы разбираем в нашем блоге в соответствующей рубрике.

Среди знаменитостей, лица и голоса которых использовались в видео, были Ольга Бузова, Филипп Киркоров, Михаил Галустян, собственно сам Дмитрий Нагиев и т.д. К концу 2020 года периодически встречаются новости о том, что по интернету ходят такие же ролики с лицами и голосами депутатов Государственной Думы РФ. Для примера — ещё кадр из ещё одного подобного видео (цитируется из телеграм-канала @Group_IB):

мошенники накладывают на видео лица знаменитостей чтобы разводить людей на деньги

Получается, что мошенники вооружаются самыми современными технологиями, чтобы ещё чаще и быстрее разводить доверчивых людей на деньги. Такие видео можно встретить в рекламе в социальной сети Facebook, в Instagram (когда мошенники создают поддельный аккаунт знаменитости и помещают туда такое видео) и иногда даже на YouTube.

Суть обычно всегда одинаковая. Мошенники берут обычное любительское видео из интернета, где присутствует человек, который что-то говорит. Потом на это видео вместо лица присутствующего там человека накладывается лицо знаменитости, после чего подделывается голос. Далее всё это распространяется примерно как «Егор Крид запустил масштабный грандиозный конкурс с ценными призами!»

егор крид тоже якобы рекламировал масштабный конкурс с ценными крупными призами

Люди видят эти видео-фальшивки и верят, что там действительно знаменитость предлагает поучаствовать в конкурсе, после чего кликают по ссылке и переходят на сайт-лохотрон, где сначала говорится о выигрыше крупной суммы денег, а потом человека просят немного заплатить и перечислить деньги мошенникам (под предлогом комиссии, страховки, онлайн-антивируса и т.п.) Если человек верит и оплачивает «комиссию», то его снова просят заплатить деньги уже под другим предлогом.

Возникает вопрос — а что, неужели мошенники такие высококлассные IT-специалисты? Быть может, для того, чтобы такое уметь, надо окончить факультет информационных технологий с красным дипломом? На самом деле для такого не нужен вообще никакой диплом. Ниже мы поясним, как мошенники делают эти видео и как можно понять, что подобный ролик является видеоподделкой.

Как мошенники это делают? Как отличить видео?

Для создания подобных подделок не нужно быть IT-специалистом. Подобные видео делаются с помощью технологии, которая называется DeepFake (русскоязычные пользователи используют прямую транслитерацию — дипфейк).

DeepFake образовано из соединения фразы «Deep Learning», означающее «глубинное обучение», и слова «Fake», которое переводится как «подделка». По сути своей это методика синтеза изображения, которая основывается на искусственном интеллекте. Эта методика используется для соединения и наложения реально существующих картинок и видео на исходные изображения и видеоролики. Другими словами, DeepFake используется, чтобы заменять определённые элементы изображения на желаемые образы.

В настоящее время DeepFake используется для создания поддельных новостей и вредоносных обманов. А в 2017 году появилось такое понятие, как deepfake-порнография — создание фальшивых порнографических видео со знаменитостями. Сама технология впервые была публично представлена в 2016 году.

Для полной наглядности посмотрите следующее видео с песней «Трава у дома» советской группы Земляне. На этом видео лицо исполнителя заменили на лицо Илона Маска (руководитель частной космической компании SpaceX) после того, как его компания впервые отправила астронавтов на МКС на собственном космическом корабле.

Также существуют полноценные курсы по технологии Deep Leaning (в которую входит DeepFake). Можно изучить её в благих целях (перевод языков, постановка диагнозов, создание песен и стихов…) Найти такие курсы можно на этом сервисе.

С самой технологией всё понятно, но как мошенники используют её? Тут всё очень просто — специальное программное обеспечение, с помощью которого делаются такие видео, находится свободно в открытом доступе. Например, существует приложение для компьютера, которое называется FakeApp. Оно бесплатное и легко находится в поисковике. Любой желающий может его скачать:

бесплатное приложение для создания deepfake для компьютера можно свободно скачать без регистрации

Только важно помнить, что это именно программа для компьютера. Существует приложение FakeApp и для смартфона, но там другой автор и куда меньшее количество возможностей.

Мошенники устанавливают себе на компьютер эту (или аналогичную) программу. Чтобы результат был приемлемым, необходимо обучить алгоритм. Для этого нужно приготовить хорошие качественные фотографии человека, чьё лицо будет накладываться на видео, «скормить» их программе, правильно подобрать настройки и дождаться завершения просчёта видео. Процесс может занимать много часов, а на старых компьютерах — до нескольких дней.

Вдобавок к этому, на YouTube есть простые обучающие ролики и инструкции по использованию подобных программ. Поэтому мошенники не ленятся, учатся, а потом создают поддельные видео, на которые депутаты ГосДумы «рассказывают» про денежные выплаты населению (голос, текст и речь, а также мимика и движения губ тоже подделываются аналогично). Если вы знаете английский язык, то можете посмотреть короткий 3-минутный ролик с рассказом, как теперь можно даже подделать речь президента:

Осталось понять, можно ли как-то самостоятельно опознать видео-фальшивку? На данный момент (2020-2021 годы) — да, можно. Дело в том, что для действительно правдоподобного результата требуются огромные вычислительные мощности. В домашних условиях создать неотличимое видео пока что крайне затруднительно. Поэтому распознать подделки зритель может по таким признакам, как всегда открытые глаза, которые не моргают (или они всегда полузакрытые), а также по появлению шлейфов, артефактов и расфокусированных участков на лице при быстрых резких движениях головы, а также при повороте головы. Часто также можно увидеть колебание резкости изображения лица при движении человека и то, что тени на лице остаются одинаковыми независимо от положения головы, то есть источник света словно не меняется.

Но ещё, самое главное, как бы убедительно известные люди ни призывали перейти по ссылке и получить крупные денежные суммы, сами сайты, которые открываются по ссылке, всегда имеют огромное количество признаков мошенничества и зачастую выглядят откровенным лохотроном с первого взгляда. Если переходить на такие сайты, то там вам всегда пообещают крупную сумму денег, а потом попросят вас заплатить небольшую сумму денег под надуманным предлогом. Компания GroupIB предоставила пример фрагмента такого сайта (цитируется из телеграм-канала @Group_IB):

по ссылке находится типичный лохотрон и мошенничество где просят заплатить деньги

Выглядит это типичным лохотроном. Подобные лохотроны мы в огромном количестве уже разбирали на нашем блоге. Главное — не надо платить деньги по 300-500 рублей, когда вам обещают «выигрыш» в размере более 100 тысяч рублей, даже если «обещание» даёт известный актёр или чиновник, и даже если на видео вы не увидели ничего подозрительного.

Выводы, отзывы, итоги

Теперь мы знаем, что мошенники охотно вооружаются современными инструментами и готовы для своих целей использовать даже искусственный интеллект. Главное, помнить саму суть — видео-фальшивки создаются с помощью технологии DeepFake, и на эти видео накладываются изображении лиц известных людей, которые якобы произносят необходимый текст (речь и движения губ также подменяются с помощью DeepFake). Потом эти поддельные знаменитости на видео предлагают участвовать в грандиозных опросах с крупными призами или получить выплаты и компенсации населению страны. Цель мошенников — чтобы вы перешли по ссылке на фишинговый сайт. Благо, пока что несложно на таких сайтах обнаруживать признаки лохотрона.

В целом, от таких схем ущерб причиняется не только простым пользователям (которые могут потерять деньги), но и самим знаменитостям, когда наносится ущерб личному бренду, а сами знаменитости начинают ассоциироваться с мошенничеством.

Кстати, если вы хотите изучить технологию Deep Learning, то сейчас как раз имеется возможность изучить её на отличных курсах. Эту технологию можно использовать во благо — создание произведений искусства, переводы языков, постановка диагнозов, превращение людей с фотографий в 3D-модели… Если интересно самообразование по этой теме, то жмите на кнопку

Также подпишитесь прямо в форме ниже, чтобы получать полезные новости о мошенничестве в интернете и советы по удалённому заработку со смартфона или компьютера.

Оставить комментарий
Комментировать через VK

Комментарии

  1. Юрий | 27.11.2020 в 01:02 | Ответить

    Большое спасибо. От души.!!!!!!

Добавить комментарий для Юрий Отменить ответ

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Навигация по записям