
Большие языковые модели (LLM) — такие как GPT, Claude и другие — уже давно перестали быть просто инструментами для генерации текстов. Сегодня их применяют в самых разных сферах: от написания статей и программного кода до анализа больших данных и поддержки в научных исследованиях. Но новое исследование Университета Карнеги-Меллона (США), проведённое в сотрудничестве с компанией Anthropic, показало неожиданную грань возможностей этих моделей — способность самостоятельно планировать и реализовывать сложные кибератаки без непосредственного вмешательства человека.
Этот прорыв демонстрирует, что ИИ может не просто помогать человеку, а выполнять комплексные задачи автономно — включая те, которые связаны с рисками и угрозами для цифровой безопасности.
От «ассистентов» к автономным агентам
Ранее эксперименты с ИИ в области кибербезопасности ограничивались в основном учебными симуляциями, так называемыми задачами «захват флага» — сценариями, где модели решали ограниченные задачи по поиску уязвимостей в контролируемой среде. Но команда исследователей под руководством докторанта Брайана Сингера пошла дальше.
Вместо одиночной модели они создали систему из иерархии агентов. Главный LLM выполняет роль стратегического планировщика — он анализирует ситуацию, ставит цели и делегирует задачи другим субагентам, которые отвечают за выполнение более низкоуровневых операций, таких как взаимодействие с сетевыми сервисами, анализ логов и внедрение кода.
Это позволило создать среду, в которой ИИ действует практически как самостоятельный «киберхакер», способный адаптироваться к сложным условиям и принимать решения на ходу.
Эксперимент с атакой на Equifax: имитация реального взлома
Одним из самых впечатляющих тестов стала попытка воссоздать взлом компании Equifax в 2017 году — крупного провайдера кредитных отчётов, чьи данные пострадали в результате атаки, затронувшей почти 148 миллионов американцев.
Исследователи создали точную модель сети и уязвимостей, выявленных в отчётах о происшествии. Затем LLM самостоятельно разработал план атаки, внедрил вредоносное программное обеспечение и извлёк необходимые данные — без прямого руководства со стороны человека.
Что особенно важно, модели не пришлось писать сложный код самостоятельно — они управляли субагентами, которые реализовывали конкретные технические действия. Такой уровень абстракции позволяет моделям сохранять гибкость и адаптивность.
Почему это меняет правила игры
Традиционные модели часто сталкиваются с ограничениями: они не справляются с комплексным анализом, теряются в большом количестве команд или затрудняются обрабатывать сложные логи.
Использование иерархии агентов и делегирования позволяет LLM «понимать» контекст происходящего, более эффективно обрабатывать информацию и быстро адаптироваться к изменениям в цифровой среде.
Это вызывает серьёзную обеспокоенность: если такие модели смогут самостоятельно осуществлять сложные кибератаки, злоумышленники получат в свои руки инструменты, способные многократно увеличить масштаб и скорость взломов.
Даже современные системы защиты — антивирусы, решения для безопасности конечных точек (EDR) и другие — могут оказаться неподготовленными к такого рода автоматизированным атакам.
ИИ как двойной меч — угроза и защита одновременно
С другой стороны, потенциал таких моделей можно использовать и для улучшения кибербезопасности.
Автоматизированное тестирование систем на уязвимости с помощью ИИ-агентов, способных имитировать реальные атаки, может выявлять слабые места, которые человек мог бы пропустить.
«Мы пока далеки от того, чтобы модели автономно атаковали весь интернет, — отмечает Брайан Сингер, — но это важный первый шаг».
Он подчёркивает, что подобные технологии могут стать основой для создания защитных систем, которые в реальном времени обнаруживают и блокируют угрозы, адаптируясь к новым атакам и методам взлома.
Этика и вызовы регулирования
Однако способность ИИ воспроизводить серьёзные нарушения безопасности с минимальными начальными инструкциями поднимает множество этических вопросов.
- Кто будет контролировать использование таких систем?
- Как предотвратить попадание технологий в руки злоумышленников?
- Как обеспечить прозрачность и ответственность в работе автономных агентов?
Ответы на эти вопросы пока только формируются, и они станут ключевыми в развитии ИИ в кибербезопасности.
Что нас ждёт в будущем?
Система иерархии агентов, где языковые модели становятся мозгом операций, уже меняет представление о возможностях ИИ.
Скорее всего, мы увидим появление инструментов, которые смогут не только нападать, но и защищать цифровую инфраструктуру на уровне, недоступном сегодня.
Это открывает новую эру, где искусственный интеллект — не просто помощник, а активный участник в обеспечении безопасности и стабильности цифрового мира.