Как мошенники используют ИИ для обмана
Вы уверены, что голос в трубке принадлежит тому, кто говорит?

Представьте: ваш телефон звонит. На экране — знакомый номер. Вы поднимаете трубку и слышите голос близкого человека. Он в панике, просит срочно перевести деньги — попал в беду. Сердце сжимается, вы уже готовы помочь… но через минуту понимаете — это не он. Голос точь-в-точь как настоящий, интонации, даже манера речи — все совпадает. Но на другом конце провода не человек, а искусственный интеллект.
Так работает новый уровень мошенничества. Преступники больше не нуждаются в артистах, которые разыгрывают сценарии. Теперь у них есть алгоритмы, способные подделать любой голос, написать убедительный текст и даже поддержать беседу так, что вы не заподозрите подвоха. Фейковые колл-центры, чат-боты-аферисты, нейросети, выдающие себя за людей, — это уже не сюжет фантастического фильма, а реальность, в которой каждый может стать жертвой.
В этой статье — как ИИ стал главным инструментом мошенников, почему даже самые осторожные люди попадаются на эти схемы и что делать, чтобы не оказаться следующим. Будет страшно, но знать это необходимо — потому что технологии не стоят на месте. И если вы думаете, что вас это не коснется, скорее всего, вы просто еще не получили тот самый звонок.
Когда ИИ звонит вам «от имени банка»
Вы только что пообедали, настроение хорошее — и тут раздается звонок. «Алло, это служба безопасности вашего банка. На ваш счет пытаются перевести деньги. Назовите код из смс, чтобы мы остановили операцию». Голос спокойный, профессиональный, без малейших подозрительных акцентов. Вы верите — потому что это действительно похоже на банк. Но на другом конце провода — не сотрудник, а нейросеть.
Так сегодня работают фейковые колл-центры. Мошенники больше не набирают жертв вручную — за них это делает ИИ. Вот как это устроено:
- Голосовой клон — сервисы вроде ElevenLabs или Resemble AI могут скопировать любой голос по короткой записи. Достаточно, чтобы жертва
когда-то говорила в телефон (например, в соцсетях есть аудиосообщения), и ее голос уже можно подделать. - Сценарий от ChatGPT — нейросеть пишет диалоги без штампов, подстраивается под ответы и не теряется, если вы задаете вопросы.
- Автоматические звонки — боты обзванивают тысячи номеров, а когда жертва «клюет», передают разговор мошеннику.
Почему это страшно? Потому что ИИ не запинается, не нервничает и звучит убедительнее живого человека. Он знает ваше имя, откуда-то у него есть данные о ваших счетах — и вы верите.
Реальный случай: В Питере пенсионерка перевела 300 тысяч рублей «внуку» — он звонил и плакал в трубку, умолял о помощи. Голос был точь-в-точь как у него. Позже выяснилось, что мошенники нашли в соцсетях видео, где парень поздравляет бабушку с днем рождения, и сделали копию его голоса.
Технологии уже здесь. И если раньше можно было повесить трубку при малейшем подозрении, то теперь даже это не всегда спасет.
Нейрофрод: как обманывает ChatGPT
Вы получаете сообщение: «Привет! Это Марина из службы поддержки. Ваша карта заблокирована, перейдите по ссылке, чтобы восстановить доступ». Обычный спам, думаете вы и удаляете письмо. Но что, если через час вам приходит новое – уже от „друга“, который якобы случайно отправил вам код подтверждения и просит срочно его продиктовать? А потом в соцсетях появляется новый поклонник – обаятельный, с хорошим чувством юмора, который через неделю знакомства начинает рассказывать, как хорошо зарабатывает на крипте…
Это не три разных мошенника. Это одна нейросеть, которая пишет сотни таких сообщений в день.
Раньше аферистов выдавали корявые формулировки и шаблонные фразы. Теперь ChatGPT и аналоги генерируют идеальные тексты – без ошибок, с естественными интонациями и даже с учетом ваших интересов.
Как это работает:
- Чат-боты на сайтах-клонах банков убедительно имитируют поддержку
- В dating-приложениях ИИ ведет долгие беседы, подготавливая жертву к просьбе о деньгах
- Рассылки стали персонализированными – нейросеть анализирует ваш профиль в соцсетях
Реальная история: Житель Москвы два месяца переписывался в Telegram с девушкой Аней. Она поддерживала беседы, шутила, даже «звонила» (голосовой ИИ). Когда мужчина влюбился, Аня попросила помочь с „лечением“ – 400 тысяч рублей. Исчезла после перевода.
Главная опасность – масштаб. Один мошенник с ChatGPT может одновременно вести сотни таких «знакомств». А нейросеть учится на каждом диалоге, становясь все убедительнее.
И самое страшное – эти технологии уже доступны любому. В даркнете продают «готовых ботов для скама» дешевле нового iPhone.
Теневая индустрия ИИ-мошенничества
За каждой схемой с поддельными звонками и чат-ботами стоит целый черный рынок цифровых мошенников. Это уже не одиночки с телефоном в подвале, а организованные сети, где технологии ставят на поток.
В даркнете и закрытых Telegram-каналах сегодня можно купить все для «бизнеса» по обману людей:
Товар/услуга | Цена | Что дает |
---|---|---|
Голосовой клон | $50-100 | Может копировать любой голос за 5 сек |
Готовый GPT-бот для скама | $200-500 | Автоматизирует переписку с жертвами |
Баз данных с телефонами | $10 за 1000 номеров | Целевая аудитория для обзвона |
Обучение «нейрофроду» | $300-1000 | Инструкции по схемам с ИИ |
Этот рынок растет как на дрожжах. По данным экспертов по кибербезопасности, только за последний год количество предложений «ИИ-инструментов для мошенничества» в даркнете выросло в 3 раза.
Кто этим занимается
- Бывшие IT-специалисты, ушедшие в криминал из-за больших денег
- Обычные мошенники, которые переучились на новые технологии
- Целые «кибербригады» из стран, где власти закрывают глаза на такое
Почему их не ловят
- Технологии опережают законы – многие схемы пока не подпадают под статьи
- Сервера и кошельки мошенников разбросаны по разным странам
- Жертвы часто не обращаются в полицию, считая это бесполезным
Один оперативник из отдела «К» признался: „Мы задерживаем таких аферистов, но на их место тут же приходят десять новых. Это как гидра – отрубаешь одну голову, вырастают две“.
Пока государства думают, как регулировать ИИ, мошенники уже вовсю его используют. И их «бизнес» приносит сотни миллионов долларов в год – по некоторым оценкам, каждая вложенная тысяча дает 15-20 тысяч прибыли. Цифры, ради которых многие готовы переступить закон.
Как защититься
Кажется, что против таких технологий обычному человеку не устоять. Но это не так. Есть простые правила, которые сведут риск к минимуму. Главное — выработать новые привычки, потому что старые методы осторожности уже не работают.
Что делать прямо сегодня:
- На звонки «от банка» — перезванивать. Никогда не называйте коды из SMS, даже если звонящий представляется сотрудником. Положите трубку и наберите официальный номер банка сами.
- Проверяйте «родственников в беде» через видео». Если вам звонит „внук“ или „племянник“ с просьбой о деньгах — попросите включить камеру или задайте личный вопрос, который знаете только вы двое.
- Не оставляйте голосовые в соцсетях. Удалите старые аудиосообщения — их хватит, чтобы скопировать ваш голос.
- Включите двухфакторную авторизацию везде. Даже если мошенники получат доступ к паролю, без кода на телефон они не зайдут.
- Не верьте «слишком идеальным» незнакомцам. Если новый знакомый в сети пишет как поэт, но отказывается от видеозвонков — это повод насторожиться.
Технологии против технологий
Банки и IT-компании уже начали внедрять системы распознавания ИИ-голосов. Например, некоторые call-центры теперь просят клиентов сказать кодовую фразу — нейросети пока не умеют правильно реагировать на такие импровизации.
Но главная защита — в вашей голове. Современные мошенники играют на эмоциях: страхе («ваш счет взломали»), жалости („помогите ребенку“), жадности („быстрый заработок“). Пауза в пару минут перед действием часто спасает деньги.
Запомните: ни одна настоящая организация не будет требовать от вас срочных переводов или паролей. А если сомневаетесь — позвоните близким. Живой человек сейчас самый надежный антивирус.
Технологии меняют правила игры — и это уже не будущее, а наше настоящее. Мошенники с ИИ не ходят в масках и не взламывают сейфы. Они тихо сидят по ту сторону экрана, используя алгоритмы, которые умеют говорить голосом вашей мамы, писать как влюбленный романтик или представляться сотрудником банка без единой ошибки.
Но есть и хорошие новости: защита от этого существует. Она не требует специальных знаний — только внимательность и здоровый скептицизм. Помните, что ни один банк, ни один родственник и ни один влюбленный незнакомец не будет требовать от вас денег здесь и сейчас. Настоящие проблемы не решаются за пять минут, а настоящие чувства не измеряются переводами.
С каждым днем нейросети становятся умнее, но и инструменты защиты не стоят на месте. Главное — не паниковать, а привыкнуть к простым правилам цифровой гигиены. Поделитесь этими знаниями с теми, кто может не знать об угрозе, — особенно с пожилыми родственниками. Потому что в этой новой реальности безопасность зависит не только от технологий, но и от нашей способности оставаться людьми: задавать лишние вопросы, перепроверять и иногда просто вешать трубку.
В конце концов, любая нейросеть — всего лишь инструмент. И только мы решаем, кто будет им пользоваться: те, кто хочет обмануть, или те, кто готов защищаться. Выбор за вами.
Ранее мы разбирались, как работают дроны-полицейские.