В 2025 году преступность кратно вырастет из-за развития ИИ
Эксперты по кибербезопасности бьют тревогу и предупреждают: в 2025 году может существенно вырасти число противоправных деяний, которые планируются с применением искусственного интеллекта (ИИ).
Методы и схемы различных преступлений совершенствуются – это происходит по мере того, как развивается искусственный интеллект. Можно предположить, что уже в текущем году ИИ начнут использовать в своей «работе» порядка 90% всех преступных кибер-группировок.
Реальна ли угроза
Станислав Козловский, эксперт по кибербезопасности с опытом построения и развития систем защиты в АО «Почта России», структуре Сбербанка и казахстанском финтехе Solva, считает: предположение об увеличении числа преступлений, связанных с ИИ, вполне реалистично. В последние годы технологии искусственного интеллекта активно развиваются и становятся более доступными благодаря открытым моделям, облачным платформам и API-интерфейсам. Однако темпы роста преступной активности будут зависеть от ряда факторов.
«Открытые модели, такие как ChatGPT, уже имеют ограничения на использование в целях, противоречащих политике безопасности, этическим нормам и законам большинства стран. Однако злоумышленники могут использовать переобученные модели», – подчеркивает Козловский.
Другая проблема – увеличение количества преступных группировок, которые планируют использовать ИИ. Это делает угрозу более реалистичной, считает эксперт, однако предполагает наличие доступа к значительным вычислительным ресурсам и экспертным знаниям. Расширяется и ландшафт угроз – ИИ начинает использоваться не только для единичных резонансных киберпреступлений, но и для тривиальных, понижая порог входа в поле преступной деятельности, и делая сами противоправные деяния более эффективными.
ИИ как соучастник
Фишинг и социальная инженерия, мошенничество с голосом и видео, атаки на доверенные системы, использование вредоносного программного обеспечения (ПО) нового поколения – киберпреступления, для совершения которых уже в ближайшем будущем ИИ будет использоваться чаще всего.
«Генерация персонализированных писем, сообщений и звонков, которые сложно отличить от реальных, станет стандартной практикой. Злоумышленники смогут автоматизировать массовые атаки с высокой эффективностью. Deepfake-технологии будут применяться для подделки голоса или видео, что откроет новые возможности для вымогательства, шантажа и финансовых махинаций», – объясняет Станислав Козловский.
Что касается роли российских аналогов ИИ в контексте кибербезопасности, то она, по мнению эксперта, пока еще незначительна. У этих моделей ограниченное пространство для обучения.
«Русскоязычный сегмент Сети кратно меньше англоязычного. Несмотря на государственную поддержку, масштаб инвестиций в ИИ в России не сопоставим с тем, что вкладывают крупные международные корпорации. В том числе это касается сложности привлечения и удержания узкоспециализированных специалистов», – отмечает Козловский. Однако он подчеркивает: российские аналоги ИИ все равно могут использоваться в киберпреступлениях на локальном рынке, поскольку они лучше интегрированы именно в русскоязычную среду.