Как технологии и психология превратили мошенничество в систему и причем здесь ИИ
Современное мошенничество давно перестало быть делом одиноких авантюристов. Это — сложная, хорошо организованная система , в которой задействованы технологии, психологические методики и даже искусственный интеллект.
Особенно активно такие схемы развиваются в интернете и по телефону, где жертва зачастую не видит лица обманщика, но доверяет голосу или тексту. Если раньше жертвами становились преимущественно наивные или неосторожные люди, то сегодня под удар попадают даже те, кто считает себя искушенным пользователем цифрового пространства.
Проблема заключается в том, что чем совершеннее становятся защитные механизмы, тем изощреннее оказываются методы их обхода. Впрочем, это справедливо не только для мошенничества - это вообще логичный сценарий эволюции любого процесса и технологии.
Мошенники больше не полагаются на случай — они анализируют, тестируют и оптимизируют свои подходы, словно легитимный бизнес, стремящийся к максимальной конверсии.
Для начала проследим эволюцию мошенничества — от примитивных телефонных звонков до сложнейших атак с применением искусственного интеллекта, а также попытаемся понять, почему традиционные методы защиты утратили свою эффективность в этой неравной борьбе.
Раньше мошенники полагались на грубые, но эффективные методы: звонки с угрозами о якобы задолженности перед банком, сообщения о выигрышах, фишинговые письма с поддельными ссылками. Эти схемы работали за счёт массовости — тысячи людей получали одно и то же письмо, и среди них находились те, кто «купился».
Мошенники стали использовать
ПодробнееБольшие данные
Сбор информации о пользователе через социальные сети, открытые источники и утечки данных.Персонализированные атаки
Вместо общего сообщения — письмо с вашим именем, названием банка, данными о последнем платеже.Голосовой ИИ
Создание имитации голоса родственника или сотрудника компании для более достоверного обмана.Фишинг под конкретные организации
Сайты-дубликаты популярных банков, онлайн-магазинов, государственных сервисов.
Эпоха массовых звонков
На заре двухтысячных телефонное мошенничество казалось примитивным, но уже тогда в нем просматривались зачатки системности. Злоумышленники, вооруженные лишь списками номеров и заученными скриптами, методично обзванивали тысячи людей в расчете на статистический успех. Их схемы строились на базовых человеческих страхах и желаниях: внезапные проблемы с банковским счетом, неожиданные выигрыши, мнимые угрозы близким. Особенно показательна история пенсионерки из Екатеринбурга, которая в 2018 году перевела мошенникам два миллиона рублей, поверив в историю об аресте сына. Этот случай, ставший хрестоматийным, наглядно демонстрировал, как эффективно работают простейшие психологические триггеры. В те годы защита была столь же незамысловатой — достаточно было запомнить, что настоящие банки никогда не просят переводить деньги на "безопасные счета".
Мошенничество перешло в онлайн
С распространением интернета и смартфонов изменилась сама природа мошенничества. Если раньше аферистам требовалось убедительно говорить по телефону, то теперь достаточно было создать правдоподобную цифровую среду. Фишинговые сайты, точь-в-точь повторяющие интерфейсы банковских порталов; письма с официальных на первый взгляд адресов; смс-сообщения, имитирующие сервисные уведомления — все это создавало иллюзию подлинности. Особенно показательна волна атак 2022 года, когда тысячи пользователей потеряли доступ к своим аккаунтам после перехода по ссылкам "подтверждения личности". Ирония заключалась в том, что многие из этих людей считали себя достаточно технически подкованными, чтобы не попадаться на удочку мошенников. Однако создатели фишинговых страниц научились воспроизводить не только дизайн, но и поведенческие паттерны настоящих сервисов, делая подделку практически неотличимой.
Методы получения данных
ПодробнееФишинг
Подделка официальных писем или сайтов банков/интернет-магазиновМалинг
Рассылка вредоносных писем с троянами, собирающими данныеСкимминг
Установка устройств на банкоматы для считывания данныхБазы данных
Кража информации из уязвимых сервисов и магазиновСоциальная инженерия
Обман сотрудников компаний ради доступа к данным
Персонализированный обман
Сегодня мы наблюдаем качественно новый этап эволюции мошенничества, где главным инструментом становится искусственный интеллект. Современные схемы уже не рассчитаны на массовость — они точечны, адресны и учитывают персональные особенности жертвы. Нейросети анализируют цифровой след человека в социальных сетях, изучают его привычки и предпочтения, чтобы затем создать максимально персонализированную атаку. Один из самых нашумевших случаев произошел в 2024 году с московским бизнесменом, переведшим пять миллионов рублей мошенникам после звонка от "директора компании". Преступники использовали технологию голосового клонирования, воссоздав тембр и манеру речи начальника по записям с корпоративных мероприятий. Особенно тревожно то, что для создания убедительной копии потребовалось всего несколько минут аудио, свободно доступного в открытых источниках.
Крах традиционной защиты
Главная проблема современных защитных механизмов заключается в их принципиальной реактивности. Они создаются как ответ на уже известные угрозы, в то время как мошенники постоянно изобретают новые подходы. Блокировка номеров? Преступники переходят на VoIP-телефонию. Фильтрация смс-спама? Каналом для атак становятся мессенджеры. Усиленная банковская аутентификация? Появляются схемы перехвата сессий через вредоносные приложения. Этот бесконечный цикл напоминает соревнование вооружений, где у защитников по определению меньше возможностей для маневра. Ведь если банк или государственный орган хочет внедрить новую систему безопасности, это требует времени на разработку, тестирование и внедрение. Мошенникам же достаточно обнаружить уязвимость — и они могут начать ее эксплуатацию буквально в тот же день.
Самое ненадежное звено - человек
Как ни совершенствуй технические средства защиты, человек остается самым уязвимым элементом системы. Современные схемы социальной инженерии достигли невероятной изощренности, эксплуатируя не столько незнание, сколько естественные психологические реакции.
Яркий пример — так называемые "видеообыски", когда мошенники, представившись сотрудниками правоохранительных органов, через Zoom требуют показать банковские карты и назвать PIN-коды. Даже понимая абсурдность ситуации, многие подчиняются авторитету "формы" и "служебного тона", особенно когда преступники создают искусственное ощущение срочности и неизбежности.
Развитие технологий искусственного интеллекта поставило перед обществом принципиально новую проблему — проблему доверия к цифровой информации. Если раньше можно было усомниться в письме с грамматическими ошибками или в звонке с плохой связью, то сегодня нейросети генерируют безупречные тексты, а голосовые клоны неотличимы от оригиналов.
Особенно тревожной выглядит перспектива, когда мошенники начнут массово использовать видео-дипфейки. Представьте ситуацию (но в идеале, вернемся с этой ситуацией на 2-3 года назад, ибо сценарий, увы, уже стал привычным): вам звонит по видеосвязи ваш начальник или родственник, абсолютно узнаваемый внешне и по голосу, и просит срочно перевести деньги. Сколько людей в состоянии сохранить хладнокровие в такой момент?
Кроме того, мошенники масштабируют свои действия. С помощью автоматизации и алгоритмов они могут обзванивать десятки тысяч человек в день, используя роботов и ИИ для поддержания диалога. А значит, количество потенциальных жертв резко возрастает.
Дипфейки и голосовые клоны
С развитием технологий искусственного интеллекта появился новый вид мошенничества — создание дипфейков и голосовых клонов . Злоумышленники используют ИИ, чтобы подделать лицо или голос человека и выдать себя за него в разговоре с сотрудниками компаний, родственниками или банками.
Как создаётся голосовой клон?
ПодробнееВажность сбора образцов голоса
Чем больше образцов голоса собрано, тем точнее нейросеть сможет создать клон. Это позволяет достичь высокой степени реалистичности в воспроизведении голоса.Анализ речи нейросетью
Нейросеть анализирует различные аспекты речи, включая тон, тембр и акцент, что позволяет ей лучше понять индивидуальные особенности произношения.Обучение персонализированной модели
На основе собранных данных нейросеть создает персонализированную модель, что позволяет адаптировать голос к индивидуальным характеристикам пользователя.Генерация речи
Система может воспроизводить любую фразу, имитируя голос реального человека.
Особенно опасны атаки, при которых мошенники замаскировываются под руководителей организаций и дают указания о переводе средств или передаче конфиденциальной информации. Такие инциденты уже происходили в разных странах.
С помощью современных алгоритмов машинного обучения можно создать точную имитацию голоса человека, используя всего несколько секунд его записи. Мошенники собирают данные из соцсетей, видеозаписей выступлений, интервью или даже случайных аудиозаписей в интернете.
После этого генерируется реалистичный голос , способный обмануть даже близких людей или коллег. Голос, действительно, можно перепутать, причем такая возможность была еще до эры технологии фейков. Просто сейчас ситуация для мошенников проще и возможности масштабирования - выше.
В 2023 году в одной из компаний Великобритании произошёл инцидент, когда финансовый директор получил звонок от «генерального директора», который попросил срочно перевести крупную сумму денег на другой счёт. Голос был настолько убедительным, что перевод был сделан — пострадавшая компания потеряла более $350 000 . Аналогичные случаи были зафиксированы и в России. Сотрудники банков получали звонки якобы от клиентов с просьбой разблокировать карту или изменить реквизиты. При этом использовались поддельные голоса настоящих владельцев счетов, записанные ранее.
Вопрос о том, откуда брать данные для создания клона решен давно. Как это связано с фейковыми соцопросами? Мошенники всё чаще используют легальный предлог для сбора голосовых данных.
- Предлагают принять участие в опросе
- Обещают выигрыш за ответы на вопросы
- Используют голосовое распознавание под видом тестирования
Такие схемы позволяют получить образцы речи, которые позже используются для создания голосовых клонов.
Как защититься
Голосовой клон — это мощный инструмент, который может быть как полезным, так и опасным. Он меняет подход к коммуникации, безопасности и доверию. В эпоху искусственного интеллекта нельзя слепо верить тому, кто говорит с вами по телефону. Голос больше не является надёжной идентификацией — он может быть подделан.
Как мошенники крадут данные и берут кредиты на чужое имя через взлом «Госуслуг»
Сервис «Госуслуги» стал неотъемлемой частью жизни миллионов россиян. Через него можно оформить документы, оплатить штрафы, записаться к врачу и даже получить биометрическую верификацию для банковских операций. Однако популярность платформы привлекла внимание мошенников, которые активно используют схемы взлома аккаунтов для совершения финансовых преступлений.
Как происходит атака на Госуслуги?
Одна из самых распространённых схем — использование фишинговых сайтов-двойников , которые выглядят точно так же, как официальный портал. Пользователь получает подозрительное письмо или SMS с предложением якобы обновить данные, проверить статус госуслуги или получить субсидию. Перейдя по ссылке, он попадает на фишинговый сайт и вводит логин и пароль.
Но это ещё не всё. Мошенники научились обходить и биометрическую защиту — например, используя фотографии лица из соцсетей для создания 3D-модели. Видео с камеры может быть подделано при помощи ИИ, чтобы обмануть систему распознавания.
Как восстанавливают доступ к аккаунту?
Если у злоумышленника есть данные жертвы, он может попытаться восстановить доступ к аккаунту Госуслуг. Они нажимают «Забыли пароль?». Система предлагает несколько вариантов восстановления: через СМС, через электронную почту, через ЕГАИС,через код, отправленный по почте. Если пользователь ранее добавил подозрительные доверенные устройства , мошенник может использовать их для входа. Далее — полный доступ к персональным данным, включая паспортные данные, номер СНИЛС, историю обращений в государственные органы.
- Запрашивать электронную подпись (ЭП) от имени пользователя.
- Подключать услугу «Кредитная история» через Мир ЭДО.
- Обращаться в банки через портал, используя биометрию и данные паспорта .
- Беречь кредиты и микрозаймы, оформлять рассрочки, открывать карты.
Банки, использующие интеграцию с Госуслугами и бюро кредитных историй, часто принимают такие заявки как законные, особенно если используется биометрия.
Взлом Госуслуг — не просто хакерство, а высокотехнологичное мошенничество , которое может серьёзно повлиять на финансовую жизнь человека. Фишинговые сайты, кража биометрии и восстановление доступа к аккаунту позволяют злоумышленникам брать кредиты, оформлять документы и скрываться от следствия.
Как социальная инженерия ломает защиту
Телефонные звонки с угрозами блокировки счетов, фейковые смс от банков и «срочные поручения» в мессенджерах — все это элементы социальной инженерии, рассчитанные на мгновенную реакцию жертвы. Особенно опасны сценарии, где преступники, представляясь сотрудниками безопасности, заставляют жертву установить вредоносное приложение под предлогом «защиты от хакеров», фактически получая полный контроль над устройством.
Ключевой инструмент мошенников — создание искусственного цейтнота. Уведомления о «попытке списания», которые нужно отменить за 5 минут, или фальшивые приказы руководства в корпоративных чатах заставляют даже осторожных людей действовать необдуманно. Бизнес-атаки стали особенно изощренными: злоумышленники изучают LinkedIn, чтобы в телефонном разговоре упомянуть реальные проекты компании, усиливая доверие.
Персонализация через OSINT (анализ открытых данных) превращает стандартные схемы в снайперские атаки. Зная из соцсетей, что жертва недавно оформляла кредит, мошенники звонят с «проблемами по заявке». В случае с топ-менеджерами используют детали из корпоративных отчетов, имитируя стиль общения коллег.
Почему мы верим?
Давид Канеман в книге «Думай медленно… решай быстро» описал «Систему 1» — механизм быстрых, эмоциональных решений. Именно на нее давят мошенники, создавая стрессовые ситуации. Даже осведомленный человек под влиянием адреналина может проигнорировать явные противоречия в истории аферистов. Группы риска оказались полярными:
- Пенсионеры доверяют авторитету «голоса из полиции»;
- Топ-менеджеры попадаются на имитацию делового стиля, особенно в условиях цейтнота;
- Молодежь недооценивает риск при «разовых подработках» с предоплатой.
Обстоятельства
Противодействие требует не только двухфакторной аутентификации, но и тренировки «медленного мышления». Простое правило — всегда перезванивать на официальные номера для подтверждения — срывает 90% атак. Корпорации внедряют цифровые «пароли-уловки»: секретные вопросы, известные только реальным сотрудникам. Главный урок социальной инженерии в том, что в эпоху ИИ самое уязвимое звено — не ПО, а человеческая психика.
И, казалось бы, есть простое решение: не верь своим ушам. Увы, все не так просто. Теперь и глазам своим верить тоже нельзя.
Дипфейки: цифровые двойники и искусственная реальность
Современные технологии достигли такого уровня развития, когда увиденное и услышанное уже не может автоматически восприниматься как достоверное. Дипфейки (от английского "deep fake" — глубокая подделка) представляют собой синтетический медиаконтент, созданный с помощью искусственного интеллекта. Эти технологии позволяют с беспрецедентной точностью подделывать видео- и аудиоматериалы, заменяя лица, голоса и даже манеру речи реальных людей. Феномен дипфейков возник на стыке машинного обучения и компьютерной графики. Первые подобные разработки появились в научных лабораториях, но сегодня они стали доступны практически любому пользователю интернета. Это породило целый спектр этических и правовых вопросов, поскольку технология может использоваться как в творческих целях, так и для мошенничества или дезинформации.
Процесс создания дипфейков основан на использовании генеративно-состязательных сетей (GAN) — особого типа нейросетей, где две модели работают в противостоянии друг с другом. Одна сеть генерирует изображения или видео, а другая пытается отличить подделку от оригинала. В результате такого "соревнования" качество подделок постоянно улучшается. Для создания убедительного дипфейка требуется значительное количество исходного материала. В случае видео это должны быть десятки часов записей с разных ракурсов при различном освещении. Для голосовых клонов необходимы образцы речи разной интонации и эмоциональной окраски. Современные алгоритмы способны анализировать мимику, жесты и даже особенности дыхания человека, чтобы создать максимально правдоподобную имитацию.
Особенно впечатляющих результатов удается достичь при обработке видеоматериалов. Алгоритмы научились не просто накладывать одно лицо на другое, но и точно воспроизводить мимику, включая малозаметные движения глаз и губ.
Негативное применение дипфейков
ПодробнееМошенничество через телефонные звонки
Злоумышленники используют звонки от имени родственников или руководителей для обмана граждан, что приводит к финансовым потерям и утрате доверия.Шантаж как метод вымогательства
Шантаж становится распространенной практикой, когда злоумышленники угрожают раскрытием компрометирующей информации, чтобы заставить жертву выполнить требования.Фейковые видео для вымогательства
Создание фейковых видео используется для шантажа и вымогательства, что подрывает доверие к цифровым медиа и угрожает безопасности граждан.Дезинформация и влияние на выборы
Распространение фейковых новостей и дезинформации оказывает значительное влияние на общественное мнение и выборы, подрывая демократические процессы.Угрозы безопасности и утечки данных
Использование биометрических данных в шпионаже и террористических целях создает серьезные угрозы безопасности и требует усиленной защиты личной информации.
Этические границы и будущее технологии
Распространение дипфейков поставило перед обществом сложные вопросы о природе достоверности информации. Если раньше фотография или видео считались неопровержимыми доказательствами, то сегодня этот статус оказался под угрозой. Эксперты предупреждают, что эра тотальной цифровой недоверчивости может привести к глубоким изменениям в социальных взаимодействиях. В ответ на эти вызовы разрабатываются технологии обнаружения дипфейков. Современные детекторы анализируют незаметные для человеческого глаза артефакты: неестественное моргание, несовершенную светотень, микроскопические несоответствия в текстурах. Однако это соревнование между создателями и распознавателями подделок напоминает бесконечную гонку вооружений.
Мошенники активно используют эту технологию. Например, создают фальшивые видеообращения руководителей компаний с приказами о срочных денежных переводах. Или звонят родственникам, копируя голос близкого человека в беде. Защититься сложно, но возможно:
- Всегда перепроверяйте неожиданные просьбы по другим каналам
- Установите правило личного подтверждения для финансовых операций
- Ограничьте доступ к своим фото/видео в соцсетях
Конечно, все предложенные меры защиты гарантии вам не дадут. Слишком много наших (и с нашим участием) фото и видео в сети, плюс фото и видео у друзей, коллег. Люди, занимающиеся публичной деятельностью, первыми попадают под удар. Достаточно вспомнить скандал с Ларисой Долиной, для продажи недвижимости которой использовался дипфейк артистки.
Участники сделки
Эксперты прогнозируют рост таких атак – уже сейчас нейросети для создания дипфейков доступны даже школьникам. В будущем подделка медиа может стать массовой угрозой для бизнеса и частных лиц. Особенно опасны гибридные атаки, где дипфейки сочетают с данными из соцсетей. Зная, что человек ждет доставку, мошенники присылают "подтверждение" с его лицом в видеочате. Или имитируют голос друга в мессенджере с просьбой одолжить деньги.
Цифровые аферисты эпохи искусственного интеллекта
Современные мошеннические схемы претерпели радикальные изменения благодаря внедрению новых технологий. Искусственный интеллект, автоматизированные системы и алгоритмы глубокого обучения превратили традиционный обман в высокотехнологичный бизнес с четкой специализацией участников. Согласно данным МВД, типичный исполнитель телефонного мошенничества чаще всего представляет одну из трех категорий. Молодые люди в возрасте 17-25 лет становятся легкой добычей для вербовщиков благодаря обещаниям быстрого заработка. Вторая группа - лица старше 40 лет с криминальным прошлым, привносящие в схемы свой богатый опыт манипуляций. Особую категорию составляют выходцы из регионов с высоким уровнем безработицы, готовые на сомнительные предложения ради дохода.
Вербовка новых участников происходит через соцсети и мессенджеры, где организаторы маскируют преступную деятельность под легальный бизнес. Студентам предлагают гибкий график и хорошую оплату, должникам - возможность быстро решить финансовые проблемы, бывшим заключенным - шанс на "честный" заработок. В реальности новобранцы становятся лишь винтиками в сложном механизме обмана, выполняя роль "телефонных операторов" или "курьеров".
За кулисами этих схем действует сложная иерархическая структура. На вершине находятся организаторы, часто действующие из-за рубежа, которые разрабатывают стратегии атак и приобретают базы данных. Технические специалисты обеспечивают технологическую составляющую - создают фальшивые сайты, настраивают ботов и разрабатывают дипфейки. На нижнем уровне работают так называемые "обнальщики", которые выводят украденные средства через подставные лица.
Организаторы таких схем обычно обладают высшим образованием в сфере IT, математики или экономики. Многие из них начинали как легальные разработчики в технологических компаниях, прежде чем переключиться на преступную деятельность. Их навыки выходят далеко за рамки базового программирования — они глубоко понимают архитектуру нейронных сетей, методы обработки естественного языка (NLP) и принципы социальной инженерии.
Навыки для мошеннических схем с ИИ
Эти преступные объединения часто маскируются под легальные IT-стартапы, используя облачные сервисы и корпоративные инструменты для координации действий. Их бизнес-модель построена на постоянной инновации — как только закрывается одна уязвимость, они находят новую, используя последние достижения в области ИИ.
Борьба с такими высокотехнологичными преступниками требует соответствующего уровня подготовки от правоохранительных органов и специалистов по кибербезопасности. Пока ИИ-технологии становятся все доступнее, эта угроза будет только расти, требуя новых подходов к цифровой безопасности на глобальном уровне.
Уже сегодня очевидно, что традиционные методы борьбы с киберпреступностью не успевают за стремительной эволюцией способов обмана. В ближайшие годы нас ожидает принципиально новый ландшафт угроз, требующий переосмысления подходов к цифровой безопасности.
Прогнозы
Одним из ключевых направлений развития мошенничества станет эксплуатация устройств интернета вещей (IoT). Умные часы, бытовая техника и даже медицинские гаджеты превращаются в потенциальные точки входа для злоумышленников. Представьте ситуацию, когда взломанный холодильник становится шлюзом для доступа к домашней сети, а через него — к банковским приложениям на смартфоне. Особую опасность представляет растущая популярность «умных городов», где уязвимость одной системы может поставить под угрозу безопасность целого района.
Интересные факты
Параллельно будет развиваться так называемый «социальный фишинг» — изощренные методы манипуляции, основанные на глубоком анализе поведения жертвы в цифровой среде. Нейросети, обученные на данных из социальных сетей, смогут создавать персонализированные сценарии атак, учитывающие психологические особенности конкретного человека. Например, злоумышленники смогут генерировать убедительные сообщения, стилизованные под переписку с близкими друзьями, или имитировать голос коллеги по работе с точностью до интонационных нюансов. Особую озабоченность вызывает проблема дипфейков — технологий подделки аудио- и видеоконтента. Уже сегодня существуют случаи, когда мошенники использовали синтезированные голоса руководителей компаний для санкционирования незаконных денежных переводов. В будущем эта угроза усугубится — достаточно будет нескольких секунд записи человека в социальных сетях, чтобы создать его убедительный цифровой двойник.
Эффективное противодействие этим угрозам требует кардинального пересмотра законодательной базы. Существующие законы о мошенничестве часто не учитывают специфику цифровых преступлений. Необходимо введение четких норм, регулирующих использование технологий глубокой подделки, ужесточение ответственности за создание и распространение дипфейков, а также разработка международных стандартов в этой области. Не менее важна модернизация правоохранительной системы. Специалистам по кибербезопасности потребуются новые инструменты для обнаружения sophisticated-атак, основанные на технологиях искусственного интеллекта. Банковский сектор должен внедрять многофакторные системы аутентификации, устойчивые к социальной инженерии.
Однако главным элементом защиты остается цифровая грамотность населения. В условиях, когда технологии обмана становятся все сложнее для распознавания, критическое мышление и здоровый скептицизм становятся важнейшими навыками. Будущее цифровой безопасности зависит от нашей способности адаптироваться к постоянно меняющемуся ландшафту угроз, сочетая технологические решения с правовым регулированием и просвещением пользователей.
О чем статья?
ПодробнееМошенничество как система
Мошенники больше не полагаются на случай — они анализируют, тестируют и оптимизируют свои подходы, словно легитимный бизнес, стремящийся к максимальной конверсии.Технологии на службе мошенников
Голосовые клоны, дипфейки, активное принимают активное участие ИИ в обмане населения — такова реальность. Поговорим о том как вас попытаются обмануть и как не дать обмануть себя.Кто создает и исполняет схемы
У МВД есть довольно подробный "портрет" мошенника, банки располагают рейтингами популярных схем. В тени остаются организаторы — и это профессионалы в целом перечне специальностей.Дипфейки как зло
Их распространение поставило перед обществом сложные вопросы о природе достоверности информации. Как себя защитить? Эра тотальной цифровой недоверчивости уже наступает.Прогнозы
Эксперты прогнозируют рост атак через IoT и "социальный фишинг", при том что нынешние популярные сценарии не исчезнут. Главным элементом защиты остается цифровая грамотность населения.
Начать обсуждение