Головотяпство и халатность: Разработчики ИИ наплевательски относятся к управлению рисками
Французская НКО SaferAI выставила рейтинги ведущим вендорам технологий искусственного интеллекта. «Отличников» среди них нет.
Головотяпство и халатность
Топовые разработчики технологий искусственного интеллекта в мире халатно относятся к вопросам безопасности, – утверждается в докладе некоммерческой организации SaferAI (Франция). Рейтинг, который составляет эта НКО, призван помочь создать ясный и внятный стандарт, описывающий, как разработчикам следует обеспечивать безопасную эксплуатацию их творений. Как пишет Time, ИИ-системы уже демонстрировали способность осуществлять кибератаки на веб-сайты, способствовать разработке биологического оружия – и просто обманывать людей.
Что касается законодательных рамок, то с ними ситуация весьма неровная даже на уровне отдельных стран.
«ИИ стремительно движущаяся технология, в то время как управление рисками, проистекающими из нее, не развивается в должном темпе, – говорит Симеон Кампо (Simeon Campos), глава SaferAI. – Наши рейтинги призваны заполнить пробелы, поскольку правительства сами оценку рисков не проводят».
Рейтинг, присваиваемый каждой компании, оценивает, в частности, технические усилия, необходимые для обнаружения ошибок и уязвимостей, а также стратегии компаний по моделированию угроз и нейтрализации рисков.
Сама организация поисков уязвимостей не проводит, лишь ссылается на чужие данные.
Кто халтурит, кто спешит
Хуже всего в этом плане себя проявляет компания xAI Илона Маска, считают исследователи. Из пяти возможных баллов эта компания получила круглый ноль. Причиной тому стало практическое отсутствие публичных данных о том, как в xAI работают с рисками. Кампо отметил, что надеется на скорое изменение политики компании в виду того, что с выходом Grok 2 она стала напрямую конкурировать с OpenAI и другими разработчиками генеративных ИИ.
Регулирование рисков ИИ в Meta и Mistral были признаны «очень слабыми», OpenAI и Google Deepmind получили «слабые» рейтинги. Выше всех оказалась компания Anthropic, да и то лишь с 2,2 балла из пяти возможных.
Кампо считает, что рейтинги SaferAI скажутся на внутренних процессах разработчиков, что позволит минимизировать острые проблемы, связанные с ИИ, – предвзятость, распространение дезинформации, риск использования во вред людям. Симеон Кампо также надеется, что вендоры ИИ додумаются перенять оптимальные практики других высокоопасных отраслей – ядерной, биологической и авиационной. «Хотя все эти отрасли работают с очень разными объектами, принципы и методы работы с рисками у них очень похожи», – отметил исследователь.
«Степень угрозы, исходящей от ИИ, не уступает, а возможно, и многократно превосходит ту, которая исходит от ядерной энергетики, просто в силу того, что последняя – это зрелые, проверенные технологии и отработанные же методы контроля над рисками, – говорит Анастасия Мельникова, директор по информационной безопасности компании SEQ. – А вот технологии искусственного интеллекта и связанный с ними риск-менеджмент зрелыми назвать не поворачивается язык. При этом, несмотря на очевидные угрозы, разработчики продолжают гнать развитие технологии, чтобы обойти конкурентов, даже и в ущерб соображениям безопасности, о чем, к слову, свидетельствует скандал в OpenAI ранее в 2024 г. Тогда верх одержали сторонники скоростного развития».
Рейтинг SaferAI разрабатывался таким образом, чтобы обеспечить совместимость с некоторыми важнейшими из уже существующих стандартов ИИ, в том числе Актом об искусственном интеллекте Евросоюза.
Компания также входит в Консорциум по безопасности ИИ в США, созданный в феврале 2024 г.