Хакеры стали массово трудоустраиваться к своим жертвам с помощью подмены лица и голоса на онлайн-собеседованиях
ФБР выпустило предупреждение о том, что злоумышленники все чаще пытаются использовать дипфейки для того, чтобы устроиться на удаленную работу в технологическом секторе и получить таким образом доступ к ценным данным. Масштабы бедствия, впрочем, неясны.
«Кем вы видите себя в нашей компании через пять лет»
ФБР распространило предупреждение о том, что киберкриминал начал использовать дипфейки и украденные персональные данные для того, чтобы пытаться устраиваться на удаленную работу в технологическом секторе. В случае успеха, хакеры могут получать легитимный доступ к данным компании и клиентов и использовать их во вредоносных целях. К настоящему времени отмечены как минимум несколько случаев, когда злоумышленники стремились устроиться на позиции, которые обеспечили бы им доступ к личным данным клиентов нанимателей, финансовой информации, корпоративным базам данных и пр.
Центр обработки жалоб на преступления в интернете (IC3), подразделение ФБР, специализирующееся на цифровом криминале, утверждает, что все чаще сталкивается с заявлениями нанимателей о том, что они имели дело с дипфейками при проведении удаленного собеседования с соискателями.
«Отмечено использование подмены голоса или возможные голосовые дипфейки, в ходе онлайн-собеседований с соискателями, — говорится в публикации ФБР. — В ходе таких собеседований движения тела и губ человека на экране не полностью совпадали со звуком речи говорящего. Были случаи, когда кашель, чихание или другие слышимые действия не совпадали с визуальной составляющей». Там же указывается, что некоторые соискатели на удаленные позиции доказано использовали чужие персональные данные.
«Дипфейки могут включать видео, изображение или аудиозапись, достаточно убедительно видоизмененные, чтобы изображать другое лицо, его высказывания и действия, которых на самом деле не было», — указывается в публикации Бюро.
Глубинный обман
Дипфейк или Deepfake — это конкатенация слов «глубинное обучение» (англ. deep learning) и «подделка». Этим термином обозначают методику синтеза подвижного изображения и звуки при посредстве искусственного интеллекта. Deepfake можно использовать для замены определенных элементов изображения на желаемые образы. Наиболее активно дипфейки использовались для создания поддельных порнографических роликов с участием известных лиц, а также т. н. «порно-мести», однако в последние годы многие сетевые ресурсы запретили размещение у себя подобного контента.
Дипфейки также используются для создания поддельных новостей и провокаций, хотя известен как минимум один случай, когда их использовали в области искусства. Например, музей Сальвадора Дали во Флориде в честь 115-летия подготовил с помощью искусственного интеллекта весьма жизнеподобный видеообраз испанского художника, который общался с посетителями, причем именно общался, а не воспроизводил предварительно записанные фразы.
Кроме того, цифровые маски, позволяющие полностью менять внешность актеров, уже давно и все с большей убедительностью применяются в кинематографе.
Однако чаще всего о дипфейках говорят именно в контексте вредоносных действий. Их использование при попытке найма — явление относительно новое и довольно угрожающее.
В апреле 2022 г. Европол выпустил предупреждение о том, что дипфейки смогут стать инструментом, с помощью которого киберпреступные организации будут пытаться совершать различные мошеннические действия, а также пытаться подменять улики при расследованиях и т. д.
«Дипфейки на сегодняшний день сделать относительно просто, правда, потребуется мощный и дорогостоящий GPU для использования GAN — нейросети, с помощью которой создаются поддельные видео, — говорит Никита Павлов, эксперт по информационной безопасности компании SEQ. — Таким образом, создание злонамеренных дипфейков вполне может быть доступно почти всем желающим, а не только организованному киберкриминалу. Между тем, степень угрозы, которую дипфейки представляют при их использовании в мошеннических или манипулятивных целях, достаточно велика. Но уже существуют решения, которые позволяют идентифицировать подделки, и, вероятно, скоро их придется интегрировать в корпоративные периметры безопасности».