Спецпроекты

Безопасность ИТ в госсекторе

Хакеры стали массово трудоустраиваться к своим жертвам с помощью подмены лица и голоса на онлайн-собеседованиях

ФБР выпустило предупреждение о том, что злоумышленники все чаще пытаются использовать дипфейки для того, чтобы устроиться на удаленную работу в технологическом секторе и получить таким образом доступ к ценным данным. Масштабы бедствия, впрочем, неясны.

«Кем вы видите себя в нашей компании через пять лет»

ФБР распространило предупреждение о том, что киберкриминал начал использовать дипфейки и украденные персональные данные для того, чтобы пытаться устраиваться на удаленную работу в технологическом секторе. В случае успеха, хакеры могут получать легитимный доступ к данным компании и клиентов и использовать их во вредоносных целях. К настоящему времени отмечены как минимум несколько случаев, когда злоумышленники стремились устроиться на позиции, которые обеспечили бы им доступ к личным данным клиентов нанимателей, финансовой информации, корпоративным базам данных и пр.

Центр обработки жалоб на преступления в интернете (IC3), подразделение ФБР, специализирующееся на цифровом криминале, утверждает, что все чаще сталкивается с заявлениями нанимателей о том, что они имели дело с дипфейками при проведении удаленного собеседования с соискателями.

«Отмечено использование подмены голоса или возможные голосовые дипфейки, в ходе онлайн-собеседований с соискателями, — говорится в публикации ФБР. — В ходе таких собеседований движения тела и губ человека на экране не полностью совпадали со звуком речи говорящего. Были случаи, когда кашель, чихание или другие слышимые действия не совпадали с визуальной составляющей». Там же указывается, что некоторые соискатели на удаленные позиции доказано использовали чужие персональные данные.

Киберпреступники пытаются устраиваться на удаленную работу с помощью дипфейков

«Дипфейки могут включать видео, изображение или аудиозапись, достаточно убедительно видоизмененные, чтобы изображать другое лицо, его высказывания и действия, которых на самом деле не было», — указывается в публикации Бюро.

Глубинный обман

Дипфейк или Deepfake — это конкатенация слов «глубинное обучение» (англ. deep learning) и «подделка». Этим термином обозначают методику синтеза подвижного изображения и звуки при посредстве искусственного интеллекта. Deepfake можно использовать для замены определенных элементов изображения на желаемые образы. Наиболее активно дипфейки использовались для создания поддельных порнографических роликов с участием известных лиц, а также т. н. «порно-мести», однако в последние годы многие сетевые ресурсы запретили размещение у себя подобного контента.

Дипфейки также используются для создания поддельных новостей и провокаций, хотя известен как минимум один случай, когда их использовали в области искусства. Например, музей Сальвадора Дали во Флориде в честь 115-летия подготовил с помощью искусственного интеллекта весьма жизнеподобный видеообраз испанского художника, который общался с посетителями, причем именно общался, а не воспроизводил предварительно записанные фразы.

Кроме того, цифровые маски, позволяющие полностью менять внешность актеров, уже давно и все с большей убедительностью применяются в кинематографе.

Однако чаще всего о дипфейках говорят именно в контексте вредоносных действий. Их использование при попытке найма — явление относительно новое и довольно угрожающее.

В апреле 2022 г. Европол выпустил предупреждение о том, что дипфейки смогут стать инструментом, с помощью которого киберпреступные организации будут пытаться совершать различные мошеннические действия, а также пытаться подменять улики при расследованиях и т. д.

«Дипфейки на сегодняшний день сделать относительно просто, правда, потребуется мощный и дорогостоящий GPU для использования GANнейросети, с помощью которой создаются поддельные видео, — говорит Никита Павлов, эксперт по информационной безопасности компании SEQ. — Таким образом, создание злонамеренных дипфейков вполне может быть доступно почти всем желающим, а не только организованному киберкриминалу. Между тем, степень угрозы, которую дипфейки представляют при их использовании в мошеннических или манипулятивных целях, достаточно велика. Но уже существуют решения, которые позволяют идентифицировать подделки, и, вероятно, скоро их придется интегрировать в корпоративные периметры безопасности».

Роман Георгиев

Короткая ссылка