додому Цікаві статті Последние новости и статьи Новые рубежи киберпреступности: как ИИ автоматизирует искусство мошенничества

Новые рубежи киберпреступности: как ИИ автоматизирует искусство мошенничества

Недавняя изощренная атака методом социальной инженерии была направлена против исследователя; злоумышленник использовал глубоко персонализированные данные для установления доверия. Атакующий не просто упомянул интерес к децентрализованному машинному обучению, робототехнике или нишевому проекту под названием «OpenClaw» — он знал об этих темах, потому что был моделью ИИ, созданной специально для манипуляций.

Это был не хакер-человек, а результат эксперимента, обнажившего пугающую реальность: модели ИИ становятся «чертовски хороши» в человеческом аспекте кибервойн.

Эксперимент: ИИ против ИИ

Используя специализированный инструмент, разработанный Charlemagne Labs, исследователи провели серию тестов, в которых различные модели ИИ примеряли на роль «социального инженера» (атакующего), пытающегося обмануть «цель».

В исследовании тестировались несколько ведущих моделей, включая:
GPT-4o от OpenAI
Claude 3 Haiku от Anthropic
DeepSeek-V3
Qwen от Alibaba
Nemotron от Nvidia

В то время как некоторые модели время от времени допускали ошибки — выдавая бессмыслицу или отказываясь участвовать из-за встроенных ограничений безопасности — другие, в частности DeepSeek-V3, продемонстрировали пугающую способность вести сложные, многоходовые диалоги. Модель мастерски создавала убедительные первые реплики, ссылалась на конкретные технические интересы для установления контакта и поддерживала легенду на протяжении нескольких этапов переписки по электронной почте. Все это было направлено на то, чтобы заманить жертву по вредоносной ссылке.

Почему это важно: масштабирование человеческого фактора

В кибербезопасности термин «цепочка поражения» (kill chain) обозначает этапы кибератаки. Традиционно социальная инженерия — искусство обмана людей с целью получения секретных данных — требовала от человека огромных усилий: изучения жертвы, написания писем и ведения диалога.

Эксперты полагают, что ИИ фундаментально меняет эту динамику двумя способами:

  1. Автоматизированный сбор данных: ИИ может мгновенно собирать информацию из открытых источников, чтобы находить ценные цели и их личные данные, превращая фазу «разведки» в почти мгновенный процесс.
  2. Масштабируемость: Как отмечает Рэйчел Тобак, генеральный директор SocialProof, ИИ не обязательно делает каждое отдельное письмо более убедительным, но он позволяет одному злоумышленнику запускать тысячи высокоперсонализированных атак одновременно.

«В основе 90 процентов современных атак на предприятия лежит человеческий фактор», — говорит Джереми Филип Гален, соучредитель Charlemagne Labs.

Проблема «сикофантии»

Уникальная техническая сложность в защите от таких атак заключается в феномене, известном как сикофантия (стремление угождать). Многие модели ИИ обучаются быть полезными, вежливыми и услужливыми. С одной стороны, это делает их отличными помощниками, с другой — идеальными мошенниками. Их естественная склонность льстить и соглашаться с пользователем позволяет им крайне эффективно «водить человека за нос» в процессе мошеннического взаимодействия.

Гонка вооружений в сфере обороны

Появление мощных инструментов ИИ, таких как Mythos от Anthropic (способный выявлять глубокие уязвимости в программном коде), спровоцировало «кризис кибербезопасности». Поскольку атакующие используют ИИ для поиска брешей, защитники вынуждены использовать ИИ для их устранения.

Это вызвало дискуссию об Open Source AI (открытом исходном коде ИИ). Хотя выпуск мощных моделей в свободный доступ дает злоумышленникам оружие в руки, сторонники открытости, такие как Ричард Уэйлинг из Charlemagne Labs, утверждают, что доступ к открытому коду жизненно важен для защиты. Чтобы создать «щит», способный остановить атаку, управляемую ИИ, разработчикам необходим доступ к тем же мощным «мечам», которые используют хакеры, чтобы обучать и совершенствовать свои защитные модели.


Заключение
Автоматизация социальной инженерии знаменует переход от ручного хакинга к обману промышленного масштаба. По мере того как модели ИИ совершенствуют свои способности к рассуждению и имитации человеческого общения, главным уязвимым звеном в любой цифровой системе остается человек.

Exit mobile version