Эксперты отмечают несколько ключевых направлений, где ИИ уже меняет ландшафт угроз. Массовый фишинг приобретает гиперперсонализированный характер: генеративные модели создают тысячи уникальных писем или сообщений, адаптированных под конкретного получателя на основе открытых данных. Дипфейки и синтез голоса достигли уровня, когда подделки сложно отличить от реальности даже в реальном времени. Появляются вредоносные программы, использующие большие языковые модели для изменения поведения в зависимости от среды, что затрудняет обнаружение традиционными средствами.
Ещё один тренд — размытие границ между массовыми и целевыми атаками. Благодаря автоматизации инструментов и коммерциализации криминальных сервисов (включая AI scam as a service) даже небольшие группировки могут проводить сложные операции. Атаки на цепочки поставок и через доверенные отношения усиливаются, а shadow AI — несанкционированное использование нейросетей сотрудниками — становится источником внутренних утечек.
В то же время ИИ активно применяется и в обороне. Организации, внедряющие машинное обучение для поведенческого анализа, автоматического реагирования и проактивного поиска уязвимостей, фиксируют существенное снижение времени на расследование инцидентов и стоимости последствий. По отдельным оценкам, компании с развитыми AI-инструментами в безопасности снижают средние потери от инцидентов на миллионы долларов.
Однако преимущество защиты зависит от человеческого фактора. Традиционные программы подготовки ИБ-специалистов часто не успевают за скоростью изменений. В 2026 году ключевым становится обучение именно работе с ИИ: понимание, как нейросети генерируют угрозы, как их распознавать и как строить собственные модели для обнаружения аномалий.
Практические направления подготовки включают:
- Освоение генеративных моделей для симуляции атак (создание фишинговых писем, дипфейков, адаптивного вредоносного кода) с целью обучения распознаванию.
- Работа с инструментами анализа поведения ИИ-систем, включая выявление prompt-инъекций и отравления данных.
- Практика в средах, где ИИ выступает как ассистент SOC: запросы на естественном языке для анализа событий, автоматизированный threat hunting.
- Изучение рисков shadow AI и способов их контроля в корпоративной среде.
- Регулярные учения с моделированием AI-усиленных сценариев: от автоматизированного проникновения до каскадных атак на критическую инфраструктуру.