СЦЕНАРИЙ № 1: Вы отдаете деньги, потому что слышите знакомый голос
В 2019 году топ-менеджеру одной энергетической компании позвонил босс с требованием в течение часа перевести более 243 000 $ (25 514 490 ₽) новому поставщику, и тот выполнил просьбу. Позже босс позвонил вновь: рассказал, что материнская структура перечислила компании компенсацию, а затем запросил еще один платеж.
Сотрудник заметил, что никакой компенсации не поступало, а номер звонящего сменился. Поэтому проигнорировал вторую просьбу. И не зря. Оказалось, мошенники создали голосовой дипфейк начальника: с помощью нейросети «клонировали» его голос, чтобы выманить у компании деньги.
В 2021 году похожий случай произошел в Японии, но там сумма украденных средств составила целых 35 000 000 $ (3 674 926 501 ₽). А в России злоумышленнику поверил бухгалтер из Нижнего Новгорода, потому что голос в трубке звучал точь-в-точь как у директора фирмы.
Иногда злоумышленники ссылаются на рядовые ситуации — сел телефон, потерялась карта. Но порой врут о похищении человека и просят выкуп. Перевести деньги часто предлагают в криптовалюте или в виде подарочных карт, чтобы запутать следы для полиции.
С развитием ИИ-технологий количество инструментов для создания дипфейков выросло. Бесплатные программы для этого можно найти по самым простым запросам в Гугле. Качество у них, как правило, хуже, чем у платных, но иногда и этого достаточно. Чтобы подделать голос, требуется всего три секунды аудиозаписи. Подойдет видео из соцсетей или даже короткое «Алло, я вас слушаю» в ответ на звонок.
Также мошенники собирают базу голосов, размещая объявления с предложением озвучить рекламу или фильм. На основе образцов они создают дипфейки, в том числе для того, чтобы проходить процедуры голосовой аутентификации. Например, чтобы запросить добро на операцию или взять кредит. Банки уже понимают риски, поэтому задают клиентам больше вопросов и ищут новые способы подтвердить личность.
Впрочем, голосовые фейки встречаются не только в звонках, но и в мессенджерах в виде голосовых сообщений. Сценарии те же: условный директор просит прислать данные или же друг просит денег.
Директор предупреждает о звонке из полиции и требует на него ответить. Что делать?
Как распознать обман. Фейковые звонки обычно поступают с незнакомых номеров и в позднее время, чтобы застать вас врасплох — например, когда вы уже спите.
Сгенерированный нейросетями голос часто звучит неестественно. Он может быть слишком монотонным или немного роботизированным, содержать неверные ударения или частые паузы. Насторожить должны излишне короткие фразы, потому что их легче сгенерировать и тяжелее распознать как ложные. Также подозрительны непривычные для вашего собеседника выражения, манера общения или слова-паразиты.
Мошенники неохотно отвечают на уточняющие вопросы и твердят только о том, что ситуация не терпит отлагательств. Собеседник может специально запугивать вас, чтобы затуманить рассудок и побыстрее выманить данные или деньги. Постарайтесь держать себя в руках и ничего не предпринимайте без проверки.
Не раскрывайте личную и корпоративную информацию — даже если во время беседы вы всерьез думаете, что звонит друг, начальник или представитель банка. Если злоумышленник получит данные вашего паспорта, банковских карт и аккаунтов, он сможет украсть не только ваши деньги, но и личность. Удостоверьтесь, что это не обман: задайте вопросы, ответить на которые может только звонящий.
СЦЕНАРИЙ № 2: Вы отдаете деньги, потому что видите знакомое лицо
Мошенники научились подделывать видеозвонки. Эти истории похожи на схемы с аудиодипфейками, но более изощренные. Так, в 2024 году финансист международной компании получил письмо от директора одного из подразделений. Тот попросил его выполнить секретную транзакцию.
Сотрудник насторожился, но сомнения отпали после видеозвонка с тем самым начальником и несколькими коллегами, которых он знал. Мошенники в итоге заполучили 25 600 000 $ (2 687 946 241 ₽). А финансист только после звонка в головной офис узнал, что повелся на дипфейк.
Все чаще всего такие технологии становятся вредоносным инструментом. Киберпреступники уже несколько лет создают фейковые порноролики с лицами настоящих людей. Они либо вымогают деньги, угрожая разослать видео знакомым, либо сразу выкладывают их в интернет, чтобы очернить известных людей.
Как распознать обман. Главный маркер дипфейк-видео — неестественная мимика. Человек редко и медленно моргает, а движения губ не совсем или вообще не совпадают с тем, что он говорит. Лицо может быть излишне замыленным или, наоборот, пикселизированным.
Насторожить должны засветы или слишком сильные тени, заметные различия тона кожи, например, на лице, руках и шее, или неестественное положение головы. Чересчур приближенное изображение лица, когда толком не видно даже шею — тоже тревожный признак.
Если вы засомневались в подлинности видеозвонка, попросите собеседника выполнить какое-нибудь действие: скажем, встать и помахать руками перед лицом. Злоумышленник откажется, и этим выдаст себя. Настоящий собеседник поймет ваше беспокойство и выполнит просьбу.
СЦЕНАРИЙ № 3: Вы подумаете, что сгенерированное в нейросетях фото — настоящее
В 2023 году в сети завирусилось фото, на котором Папа Римский прогуливается в огромном белом пуховике со стаканчиком кофе в руках. Крест на груди был кривой, стаканчик при детальном рассмотрении вообще не походил на настоящий. Но некоторые пользователи все равно поверили в фейк.
Сильвестра Сталлоне на одном из фейковых фото переодели в футболку с провокационной надписью «В мире четыре бесполезности: воук-культура, вакцина против COVID-19, Энтони Фаучи и Джо Байден». А Дональда Трампа с помощью нейросетей вообще арестовали.
Таким же образом людей убеждают, что город пострадал от урагана и нуждается в срочном сборе денег. Или заинтересовывают несуществующими пейзажами зарубежных городов — так, что турист по приезде всерьез будет их искать.
Как распознать обман. Обращайте внимание на цифровые артефакты — странные руки, размытую линию роста волос, неровный контур лица, разный цвет глаз и их странную посадку, чересчур асимметричное лицо, плохо прорисованные или слишком белые зубы, искаженные аксессуары.
Сгенерированные пейзажи и объекты часто выглядят слишком красочно. На портретах — только лицо, словно это фото на пропуск. А фон при этом замыленный и недетализированный.
Если любимый актер рекламирует в соцсетях какой-либо товар, поищите новости о его сотрудничестве с фирмой-производителем, найдите анонс акции в аккаунтах самого бренда, почитайте отзывы в интернете. Убедитесь, что страницы точно принадлежат звезде и компании.
СЦЕНАРИЙ № 4: Вы оплатите на маркетплейсе товар, которого не существует
В 2022 году Wildberries сообщил, что мошенники все чаще создают фейковые карточки на маркетплейсах, чтобы с их помощью выманивать деньги. Они получают заказ, просят покупателя связаться с ними через мессенджер, отправляют ссылку для оплаты через сторонние сервисы, а после оплаты исчезают без следа.
С помощью нейросетей не проблема сгенерировать фотографии несуществующих товаров, их названия и описания. Именно так поступают злоумышленники на американском Amazon. Некоторых выдает фраза в названиях карточки, явно сгенерированная в ChatGPT: «Извините, но я не могу выполнить запрос. Он противоречит политике OpenAI».
Иногда популярность набирают очевидно фальшивые или вводящие в заблуждение товары — например, семена, из которых должен вырасти цветок с мордочкой кота. Такие нереалистичные фотографии могут встречаться и на маркетплейсах.
Сервисы утверждают, что проверяют и продавцов, и карточки, но стопроцентной гарантии не дает никто. Продавец может принять у вас заказ, увести в мессенджер, получить деньги и затем со своего аккаунта отменить отправку товара.
Как распознать обман. Поддельные карточки на маркетплейсах можно распознать по ошибкам чат-ботов в описании, а также — по слишком уж высококачественным изображениям.
Нелишним будет проверить отзывы на понравившийся вам товар. Возможно, покупатели уже пожаловались на то, что в жизни покупка совершенно не похожа на фото. Или не жаловались, но приложили снимки, на которых будущая покупка выглядит не так привлекательно, как в карточке.
Если отзывов нет, поищите продавца в поисковике или на других маркетплейсах. Не нашли отзывов или упоминаний? Тогда лучше перестраховаться и ничего у такого продавца не покупать.
Также обращайте внимание на предупреждения от маркетплейсов и других торговых платформ. Некоторые напоминают, что не стоит общаться с продавцами за пределами встроенных в площадку чатов, иначе в случае обмана техподдержка не сможет подтвердить подлинность личных переписок.
СЦЕНАРИЙ № 5: Вы отдадите деньги мошеннику, выдающему себя за красивую девушку
Фальшивые страницы множились в соцсетях годами, но до развития ИИ их создавали и поддерживали реальные люди, причем вручную. Теперь же плодить поддельные аккаунты в «Тиндере» и Bumble и поддерживать разговор с заинтересованными пользователями можно автоматически — с помощью нейросетевых чат-ботов. Цель вcе та же — выманить личные или корпоративные данные или деньги.
На рынке есть нейросети, которые генерируют «аутентичные» ответы на сообщения. Например, LoveGPT достаточно скормить то, что написал собеседник, чтобы она сымитировала флирт по переписке. Нейросеть обсудит любимый фильм, будет сопереживать и даже поделится воспоминаниями.
При этом обманывают не только мужчин, но и женщин. С помощью нейросетей мошенники задают образ успешного бизнесмена, который, втеревшись в доверие, внезапно попадает в беду, просит одолжить денег и обещает вернуть их сразу же. Увы, люди могут влюбляться даже в ботов.
Как распознать обман. Для ботов характерны формальное общение и неестественные реакции — излишняя восторженность или, наоборот, отсутствие ожидаемой эмоции или уточняющего вопроса. Порой он дает слишком быстрые и общие ответы. Также должны насторожить настырные просьбы перейти по какой-то ссылке или сделать денежный перевод.
Сценарии ИИ-мошенников не слишком разнообразны. Они предлагают сходить в театр или кино и просят вас купить билеты — либо потому что сами очень заняты, либо из-за временных финансовых трудностей. Спектакль, фильм и место проведения могут быть реальными, а вот сайт для оплаты билетов — поддельным.
Понять это можно, если проверить название сайта в адресной строке. Оно будет отличаться символом или буквой от официального домена. Странной может быть и работа сайта — дизайн вроде тот же, но баннеры расположены как-то криво, текст содержит ошибки, какие-то разделы не работают.
СЦЕНАРИЙ № 6: Вы вступите в дискуссию с ботом-мошенником
Ботов в комментариях используют для самых разных целей. Иногда это часть информационной войны — например, чтобы спровоцировать конфликт или продавить мнение. А иногда они заманивают на мошеннические сайты или в телеграм-каналы.
Некоторые бренды пользуются ботами, чтобы спамить рекламой своих товаров, услуг и акций или формировать искусственные дискуссии в соцсетях. Последние создают иллюзию интереса к бренду.
В «Телеграме», например, есть боты, запрограммированные на комментирование в определенных каналах. Они отправляют сообщение сразу, как только в теме выходит новая публикация. Иногда даже отвечают друг другу, чтобы создать иллюзию реального общения.
Вступая в дискуссию с таким ботом, вы как минимум потеряете время. В худшем случае — увидите отзыв, как заработать миллион, и перейдете на сайт или в телеграм-чат мошенников.
Как распознать обман. Бота выдаст отсутствие реального фото на аватарке или наличие очевидно сгенерированного. А еще — содержание сообщения: оно будет шаблонным, формализованным, возможно, не связанным с темой поста.
Самих комментариев, как правило, очень много — причем к текстам на самые разные темы. Словно человек только и делает, что пишет посты в интернете. Если это оживленный сайт, то кто-то из пользователей наверняка уже написал об этом в комментариях. Нелишним будет пожаловаться на бота модераторам.
И.о. прокурора района
младший советник юстиции А.П. Гудкова