Искусственный интеллект и дипфейки. Как нейросети помогают вас обмануть
Искусственный интеллект (ИИ) уже давно является темой для диспутов. Чем больше ИИ системы проникают в нашу повседневную жизнь, тем четче видна необходимость их юридического регулирования, включая вопросы мошенничества, авторского права, конфиденциальности и достоверности информации, которую они предоставляют. Но пока система правосудия и мировое сообщество только думают над способами контроля генеративных систем, число преступлений с использованием дипфейков увеличивается.
Под личиной дипфейка
Дипфейки — это видео или аудиофайлы, созданные с помощью ИИ, которые имитируют, например, знаменитостей, политиков и бизнесменов для распространения ложной информации или мошенничества. Компании по всему миру уже ощущают их влияние. По данным экспертов компании Regula, крупнейшего производителя экспертных продуктов для проверки подлинности документов, денежных знаков и ценных бумаг, треть опрошенных компаний уже пострадала от подобного мошенничества. Из них 37% организаций столкнулись с обманом с использованием голосовых дипфейков, а 29% стали жертвами поддельных видео. Например, ранее в этом году сотрудник финансовой компании в Гонконге перевел мошенникам, использовавшим технологию дипфейка при видеозвонке, более 25 миллионов долларов.
А всего несколько недель назад с помощью дипфейка мошенники получили кредит на 50 миллионов рублей под залог загородного дома народной артистки России Ларисы Долиной, а позже продали ее квартиру за 100 миллионов рублей. Учитывая широкую доступность технологий искусственного интеллекта, под ударом могут находиться не только крупные компании и знаменитости, но и частные лица.
«Когда в мессенджер приходит голосовое или даже видеосообщение от друга с просьбой занять ему 15 000 рублей, критическое мышление включается не сразу. Очень скоро мошенники начнут звонить вашим друзьям и родителям по видеосвязи. Они могут это делать уже сейчас, но пока что это слишком дорого и нерентабельно, а вот с более широким распространением ИИ цены на дипфейки будут снижаться. Мы не исключаем, что в массовое использование видео с подстановкой лиц поступит уже этой осенью», — предупреждает Артём Аникеев, директор компании Deepfakedetect.
Как не попасться на уловку?
Компания Deepfakedetect выпустила демо-версию нейросети (deepfakedetect.io), которая показывает признаки генеративного искусственного интеллекта на картинках с точностью 96,5%. В ближайшем будущем они планируют повысить точность распознавания ИИ до 100%, выпустить API и добавить возможность обработки видео и аудио контента. Кроме того, на сайте появятся несколько библиотек, которые клиент сможет использовать у себя на сервере.
Из более долгоиграющих планов — внедрить возможность обнаружения ИИ в реальном времени в браузеры и приложения. Нейросеть можно будет подключить к веб-трансляции, например к сервисам Zoom или Skype, чтобы понимать, насколько реальная картинка у вас перед глазами. Мониторинговые агентства смогут ежедневно отслеживать не появились ли новые дипфейки с лицом заказчика.
Одной из самых сложных задач является повышение точности распознавания контента. Для ее измерения компания использует метрики Accuracy и Precision.
Настройки нейронной сети необходимо адаптировать под каждую отдельную задачу. В зависимости от вида контента ИИ может быть настроен как на более «строгий», так и на более «лояльный» режим. Например, если изображение частично состоит из фотографии, а частично сгенерировано ИИ (скажем, изменено только лицо человека), качество проверки должно быть выше.
«Когда точность нашей нейронной сети превысила 90%, мы поняли, что для достижения каждого нового процента нам приходится делать почти в 3 раза больше работы, чем было сделано до этого. Сейчас вся команда сфокусирована именно на этом. Мы работаем без внешних инвестиций, поэтому вынуждены заниматься чем-то одним», — поясняет Артём Аникеев, директор компании Deepfakedetect.
Однако эта задача должна быть решена в ближайшее время: компания уверена, что без подобных технологий регулирование Сильного искусственного интеллекта (AGI) невозможно.
■ Рекламаerid:LjN8KEUkBРекламодатель: ООО «ДОБРЫЙ ОФИС»ИНН/ОГРН: 5032299431/185053026751Сайт: https://deepfakedetect.io