Спецпроекты

Безопасность Цифровизация Искусственный интеллект

Positive Technologies назвала критические для бизнеса последствия использования искусственного интеллекта

Эксперты Positive Technologies подробно проанализировали три ключевых направления развития искусственного интеллекта (ИИ): агентский ИИ (agentic AI), ИИ на периферийных устройствах (edge AI) и квантовый ИИ (quantum AI). Каждое из этих направлений не только создает для бизнеса новые возможности, но и приводит к возникновению новых киберугроз. Об этом CNews сообщили представители Positive Technologies.

Реализованные атаки могут приводить к утечке данных, нарушению бизнес-процессов и другим серьезным последствиям — фальсификации биометрии, финансовым рискам, остановке производств, ДТП или созданию потенциально опасных препаратов.

Агентский ИИ и мультиагентные системы, построенные на больших языковых моделях (LLM), способны автономно анализировать данные, принимать решения и взаимодействовать с внешними источниками. По прогнозам аналитического агенства Gartner, к 2028 г. с их помощью бизнес сможет автоматизировать до 15% рабочей рутины — от управления логистикой до персонализированного обслуживания клиентов.

Согласно исследованию Positive Technologies, применение ИИ-агентов влечет и новые киберугрозы. Для получения доступа к конфиденциальной информации или критически важным системам злоумышленники могут подменить данные в памяти и использовать инструменты агента в злонамеренных целях. Ложные входные данные приводят ИИ к цепочке ошибочных действий, а перегруз массой запросов вызывает сбои в работе — все это может спровоцировать нарушение бизнес-процессов или игнорирование политик безопасности. А внедрение вредоносного кода в фреймворки для разработки ИИ-агентов ставит под угрозу все связанные системы.

Стремительный рост числа устройств интернета вещей стимулировал развитие технологий периферийных вычислений (обработки данных в непосредственной близости от источника их генерации). Сочетание периферийных вычислений с ИИ (edge AI) открывает новые возможности в различных отраслях, например в медицине или в развитии умных городов. Благодаря edge AI интеллектуальные системы могут работать бесперебойно даже в местах с ограниченной или нестабильной связью. А обработка данных в реальном времени обеспечивает сверхвысокую скорость принятия решений, позволяя выявлять неисправности оборудования на ранних стадиях.

Злоумышленники могут воспользоваться уязвимостями самих умных устройств, например небезопасными параметрами или устаревшими компонентами. Передача данных по сети предполагает риск классических сетевых атак вроде DDoS, спуфинга и «человек посередине». Злоумышленники могут атаковать и сами модели edge AI, к примеру подменив входные данные. В результате атакующие могут получить доступ к чувствительной информации организации.

Применение квантового ИИ на практике пока ограничено, но его потенциал уже исследуют в медицине, финансах, логистике, энергетике, фармацевтике и других областях. Технология позволяет решать сложные задачи оптимизации, значительно ускоряя рабочие процессы, а также отличается низким энергопотреблением по сравнению с классическими суперкомпьютерами. А за счет точного моделирования молекулярных взаимодействий квантовый ИИ перспективен в разработке новых материалов и веществ.

Сегодня и в ближайшем будущем большинство взаимодействий с квантовым ИИ будет происходить через облачных провайдеров. Используя уязвимости облачных платформ, злоумышленники могут похитить архитектуру модели, обучающие данные и другую интеллектуальную собственность. Внедрение скрытых уязвимостей на этапе обучения модели вызывает ее неправильную работу: к примеру, в фармацевтике токсичное вещество может определяться как безопасное, в финансах могут не распознаваться мошеннические транзакции и т. п. К критическим ошибкам — от навигационных сбоев беспилотников до фальсификации биометрической идентификации — приводит и искажение входных данных. Квантовый ИИ также усиливает результативность традиционных кибератак, например способствует взлому учетных записей методом перебора паролей.

«Пока злоумышленникам, включая APT-группировки, проще получать доступ к корпоративным системам проверенными методами, чем создавать ИИ-агенты для взлома, проводить атаки на ИИ-модели или использовать дорогое квантовое оборудование. Но уже завтра картина может измениться, и бизнесу нужно учитывать эти риски. Компании, способные интегрировать кибербезопасность в стратегию внедрения ИИ, обеспечат себе устойчивое технологическое преимущество и укрепят доверие клиентов и партнеров», — отметила Яна Авезова, ведущий аналитик направления аналитических исследований Positive Technologies.

Эксперты Positive Technologies обращают внимание, что внедрение ИИ требует комплексной оценки рисков. Недостаточно ограничиться технической защитой модели, необходимо контролировать стык технологий и бизнес-процессов через обучение сотрудников и стандартизацию рабочих процедур. Особое внимание стоит уделить защите данных: ограничить доступную ИИ информацию и внедрить механизмы контроля для предотвращения утечек конфиденциальных сведений.

Короткая ссылка