Мошенники пользуются технологиями: дипфейки

Советуем поделиться этой новостью с родными и близкими, особенно старшего поколения

Сейчас с особой силой набирают популярность способы мошенничества, основанные на функциях нейросетей. Искусственный интеллект развивается семимильными шагами, у нейросетей появляется большое количество функций, который с каждым месяцем работаю всё лучше. И одна из таких функций– дипфейк. 

Дипфейк– методика синтеза лица или голоса, основанная на искусственном интеллекте. 

К чему готовиться

Чтобы создать дипфейк, злоумышленники взламывают социальные сети, берут оттуда фото, видео или голос, и этого достаточно, чтобы с помощью нейросети создать видео или аудио-сообщение по своему сценарию. Полученное видео или аудио-сообщение рассылается близким и родственникам с помощью мессенджеров и соцсетей. На таком видео человек чаще всего сообщает о проблеме (ДТП, болезнь, увольнение) и просит перевести деньги на определённый счёт. В некоторых случаях мошенники могут использовать личность работодателя, сотрудников государственных органов и т.д.

Для использования такого метода мошенничества злоумышленники изучают жертв и пользуются этой информацией для достижения наилучшего результата. 

Что можно сделать

Если вам пришло сообщение от друга или родственника с просьбой о финансовой помощи, не спешите переводить деньги. Понимаем, что сложно не поверить, когда тебя просит о помощи, кажется, реальный твой близкий человек. Однако, это и есть главный рычаг мошенников– ваше доверие. При получении сообщения стоит:

  1. Позвонить тому, кто прислал сообщение и убедиться в достоверности информации
  2. Если нет возможности позвонить, напишите в личные сообщения личный вопрос, ответ на который знает только ваш знакомый
  3. Внимательно смотрите/слушайте сообщение на предмет монотонной речи, неестественной мимики или дефектов звука

Главное помните о том, что предупреждён– значит вооружён. И желаем не попасть в цепкие лапы злоумышленников.