Спецпроекты

Безопасность Стратегия безопасности

Хакеры с помощью ИИ подделали голос ребенка и заявили его матери о похищении. Такие случаи становятся массовыми

На слушаниях по ИИ в Сенате США выступила мать двух девочек, одну из которых «виртуально похищали» мошенники. В качестве доказательства они использовали клонированный с помощью ИИ голос ребёнка.

Клон голоса

На слушаниях в Сенате США, посвящённых угрозам, проистекающим из злоупотребления технологиями искусственного интеллекта, выступила женщина из Аризоны, едва не ставшая жертвой жестокой атаки мошенников, пытавшихся убедить её в том, что её дочь похищена.

Используя в качестве доказательства синтезированный голос её дочери, злоумышленники потребовали выкуп в размере $1 млн. После чего «смягчились» и согласились взять $50 тыс. долларов наличными. Спустя несколько минут выяснилось, что ребёнок жив, здоров и невредим, и что никакого похищения не было.

Полиция в итоге отказалась возбуждать дело, посчитав звонок пранком. Самой же матери это стоило тяжёлого нервного срыва.

«Ваша дочь у нас...»

Злоумышленники позвонили среди дня; когда мать, Дженнифер ДеСтефано (Jennifer DeStefano), взяла трубку, оттуда раздался голос её 15-летней дочери Брианны. Та с паническими интонациями крикнула, что она «напортачила», после чего ДеСтефано услышала её плач, а затем раздался угрожающий мужской голос, заявивший, что девочка у него. «Похититель» заявил, что если он не получит выкуп, то накачает дочь наркотиками, сделает с ней всё, что ему захочется, после чего выбросит её в Мексике и Дженнифер больше никогда не увидит свою дочь.

Мошенники с использованием клонированного голоса заявили Дженнифер ДеСтефано (справа), что похитили ее дочь Брианну (слева)

Для пущей убедительности матери дали послушать голос дочери, умолявшей о помощи, после чего дали инструкции, куда приехать с выкупом, предупредив, что если денег не окажется, умрут и мать, и дочь. Требования матери дать ей возможность поговорить с дочерью злоумышленники проигнорировали.

Дженнифер ДеСтефано в это время планировала забрать свою младшую дочь Обри из танцевальной студии, где у той только что закончились занятия. В приступе ужаса и паники она бросилась внутрь, трясясь и умоляя кого-нибудь помочь.

Никакого похищения не было

Мать другого ребёнка набрала 911 и попыталась объяснить, что происходит. Диспетчер моментально заподозрила, что речь идёт о мошенничестве, и что в реальности никакого похищения не было. В первую очередь, потому, что поговорить с дочерью Дженнифер не позволили. О чём она и сообщила звонившей.

Очень скоро это подтвердилось: после нескольких неудачных попыток дозвониться до Брианны, та перезвонила сама, недоумевая, что случилось. В действительности они вместе с отцом спокойно катались на лыжах в 110 милях от дома.

По собственному признанию Дженнифер, она никогда не забудет тех минут ужаса, которые ей пришлось пережить из-за мошенников. Когда дочь перезвонила и сообщила, что с ней всё в порядке, мать просто сползла на пол в слезах облегчения.

Дипфейк как инструмент мошенничества

Правоохранительным органам давно знакомы подобные схемы, однако благодаря ИИ они вышли на принципиально новый уровень. Используя записи голосов, взятые из соцсетей, злоумышленники теперь способны очень убедительно «клонировать» голоса и заставлять их говорить нужные слова.

«Угроза перестала быть гипотетической: мошенники активно начали применять этот инструментарий для причинения вреда другим, - говорит Хани Фарид (Hany Farid), профессор информатики Университета штата Калифорния в Беркли и член Лаборатории искусственного интеллекта Беркли (Berkeley Artificial Intelligence Lab). - Вполне рабочий клон можно создать, используя менее минуты аудиозаписей голоса, а некоторые утверждают, что и нескольких секунд достаточно. Тенденции последних лет показывают, что для убедительного фейка нужно всё меньше данных».

По словам Фарида, существуют целые сервисы клонирования голоса, абонентская плата которых составляет всего 5 долларов в месяц, а эти деньги в состоянии заплатить кто угодно.

«Дешевизна подобных инструментов делает их особенно привлекательными для мошенников, - говорит Алексей Водясов, технический директор компании SEQ. - Те стремятся максимально увеличить прибыль и минимизировать расходы. Пока что злоумышленники явно используют только заранее подготовленные записи, но, похоже, подделка голоса в режиме реального времени скоро перестанет быть чем-то экзотическим, и паникующим родственникам будут давать возможность поговорить с якобы похищенными, в надежде убедить их, что всё произошло на самом деле. Единственный эффективный способ противодействовать подобному - не выкладывать записи своего разговорного голоса в общий доступ в соцсетях. И в целом минимизировать количество персональной информации, публикуемой онлайн. И в случае любых подозрительных действий - постарайтесь дозвониться по реальному номеру».

Фарид также отметил, что текущие версии ИИ-генераторов не позволяют с высокой степенью убедительности воспроизводить широкий диапазон эмоций, но в теории могут имитировать крик или плач.

«Может статься, клонирование голоса с изображением крика уже реализуемо, я просто не знал об этом», - заявил учёный.

Представители ФБР заявили CNN, что мошенничество с подменой голосов распространяется всё шире, и что в США злоумышленникам нередко удаётся на этом заработать. Средний размер ущерба для семей составляет 11 тысяч долларов - это не говоря уж об острых эмоциональных переживаниях.

В ФБР также считают, что в большинстве своём «виртуальные похитители» звонят из Мексики, а в качестве жертв чаще всего выбирают представителей латиноамериканских сообществ. В данном случае, впрочем, это было не так.

Роман Георгиев

Короткая ссылка