Искусственный интеллект может самостоятельно планировать и осуществлять кибератаки

Искусственный интеллект может самостоятельно

Большие языковые модели (LLM) — такие как GPT, Claude и другие — уже давно перестали быть просто инструментами для генерации текстов. Сегодня их применяют в самых разных сферах: от написания статей и программного кода до анализа больших данных и поддержки в научных исследованиях. Но новое исследование Университета Карнеги-Меллона (США), проведённое в сотрудничестве с компанией Anthropic, показало неожиданную грань возможностей этих моделей — способность самостоятельно планировать и реализовывать сложные кибератаки без непосредственного вмешательства человека.

Этот прорыв демонстрирует, что ИИ может не просто помогать человеку, а выполнять комплексные задачи автономно — включая те, которые связаны с рисками и угрозами для цифровой безопасности.

От «ассистентов» к автономным агентам

Ранее эксперименты с ИИ в области кибербезопасности ограничивались в основном учебными симуляциями, так называемыми задачами «захват флага» — сценариями, где модели решали ограниченные задачи по поиску уязвимостей в контролируемой среде. Но команда исследователей под руководством докторанта Брайана Сингера пошла дальше.

Вместо одиночной модели они создали систему из иерархии агентов. Главный LLM выполняет роль стратегического планировщика — он анализирует ситуацию, ставит цели и делегирует задачи другим субагентам, которые отвечают за выполнение более низкоуровневых операций, таких как взаимодействие с сетевыми сервисами, анализ логов и внедрение кода.

Это позволило создать среду, в которой ИИ действует практически как самостоятельный «киберхакер», способный адаптироваться к сложным условиям и принимать решения на ходу.

Эксперимент с атакой на Equifax: имитация реального взлома

Одним из самых впечатляющих тестов стала попытка воссоздать взлом компании Equifax в 2017 году — крупного провайдера кредитных отчётов, чьи данные пострадали в результате атаки, затронувшей почти 148 миллионов американцев.

Исследователи создали точную модель сети и уязвимостей, выявленных в отчётах о происшествии. Затем LLM самостоятельно разработал план атаки, внедрил вредоносное программное обеспечение и извлёк необходимые данные — без прямого руководства со стороны человека.

Что особенно важно, модели не пришлось писать сложный код самостоятельно — они управляли субагентами, которые реализовывали конкретные технические действия. Такой уровень абстракции позволяет моделям сохранять гибкость и адаптивность.

Почему это меняет правила игры

Традиционные модели часто сталкиваются с ограничениями: они не справляются с комплексным анализом, теряются в большом количестве команд или затрудняются обрабатывать сложные логи.

Использование иерархии агентов и делегирования позволяет LLM «понимать» контекст происходящего, более эффективно обрабатывать информацию и быстро адаптироваться к изменениям в цифровой среде.

Это вызывает серьёзную обеспокоенность: если такие модели смогут самостоятельно осуществлять сложные кибератаки, злоумышленники получат в свои руки инструменты, способные многократно увеличить масштаб и скорость взломов.

Даже современные системы защиты — антивирусы, решения для безопасности конечных точек (EDR) и другие — могут оказаться неподготовленными к такого рода автоматизированным атакам.

ИИ как двойной меч — угроза и защита одновременно

С другой стороны, потенциал таких моделей можно использовать и для улучшения кибербезопасности.

Автоматизированное тестирование систем на уязвимости с помощью ИИ-агентов, способных имитировать реальные атаки, может выявлять слабые места, которые человек мог бы пропустить.

«Мы пока далеки от того, чтобы модели автономно атаковали весь интернет, — отмечает Брайан Сингер, — но это важный первый шаг».

Он подчёркивает, что подобные технологии могут стать основой для создания защитных систем, которые в реальном времени обнаруживают и блокируют угрозы, адаптируясь к новым атакам и методам взлома.

Этика и вызовы регулирования

Однако способность ИИ воспроизводить серьёзные нарушения безопасности с минимальными начальными инструкциями поднимает множество этических вопросов.

  • Кто будет контролировать использование таких систем?
  • Как предотвратить попадание технологий в руки злоумышленников?
  • Как обеспечить прозрачность и ответственность в работе автономных агентов?

Ответы на эти вопросы пока только формируются, и они станут ключевыми в развитии ИИ в кибербезопасности.

Что нас ждёт в будущем?

Система иерархии агентов, где языковые модели становятся мозгом операций, уже меняет представление о возможностях ИИ.

Скорее всего, мы увидим появление инструментов, которые смогут не только нападать, но и защищать цифровую инфраструктуру на уровне, недоступном сегодня.

Это открывает новую эру, где искусственный интеллект — не просто помощник, а активный участник в обеспечении безопасности и стабильности цифрового мира.

Выбор редакции