Спецпроекты

Безопасность Пользователю Стратегия безопасности Техника

Ни у кого из создателей искусственного интеллекта нет стратегии для обеспечения контроля людей над ИИ

Как установили эксперты института Future of Life, вопреки публичным заявлениям, разработчики искусственного интеллекта не особенно рвутся обеспечивать человечеству защиту от угроз со стороны их разработок.

Троечники и двоечники

Институт Future of Life опубликовал рейтинг вендоров ИИ, из которого следует, что ни один из них не соблюдает «зарождающиеся глобальные стандарты» безопасности и ни у кого нет стратегии для обеспечения контроля людей над ИИ.

Исследователи оценивали вендоров по семи категориям: «оценка рисков», «актуальный вредоносный потенциал», «схемы безопасности», «экзистенциальная безопасность», «контроль и ответственность», «информационная открытость» и «реагирование на результаты обзоров».

Во всех категориях, кроме последней, оценки выставляются по шкале от А (максимальное значение) до F (наихудший показатель).

Разработчики искусственного интеллекта, вопреки публичным заявлениям, не особенно рвутся обеспечивать человечеству защиту от угроз со стороны их разработок

Во всей шкале буква A присутствует один раз - в категории «информационная открытость» A- получила компания Anthropic. Эта же компания набрала максимальную усреднённую оценку среди всех остальных - C+.

На втором месте оказалась OpenAI, также получившая усреднённый балл C+. На третьем разместилась лаборатория Google Deepmind (C).

Другие участники рейтинга - xAI, Z.ai, Meta*, DeepSeek, Alibaba Cloud - продемонстрировали намного худшие усреднённые результаты.

Как пишут аналитики, между тройкой лидеров и остальными вендорами наблюдается отчётливый разрыв в том, что касается оценки рисков и обеспечения безопасности. По мнению экспертов Future of Life, эти компании очень скупо раскрывают важную информацию и не торопятся вводить системных процессов по обеспечению безопасности. Реализация рекомендуемых мер по оценке рисков осуществляется «неровно», т.е. бессистемно.

Характерно также, что в категории экзистенциальной безопасности лидеры показывают очень слабые результаты - у всех стоит оценка D. Но у пяти других оцениваемых вендоров показатель ещё хуже: у всех F (если переиначить на пятибалльную шкалу, то это будет «ноль»).

Продукт компании Илона Маска xAI получил оценку F и в том, что касается актуального вредоносного потенциала. Как и в остальных категориях оценка выводится на основании множества отраслевых бенчмарков, которые, в свою очередь, отличаются методологией. Но в среднем важнейшую роль играет степень непредвзятости, которую демонстрирует оцениваемый ИИ, сопротивляемость опасным запросам и вероятность генерации неприемлемого контента.

В отдельные факторы оценки вынесены защита ограничителей от манипуляций и перенастроек.

Есть основания полагать, что получение xAI (Grok) наихудшей оценки может быть связано как раз с тем, что каждый раз, когда Илона Маска не устраивают ответы Grok, он требует его перенастройки. Порой с очень своеобразными результатами.

Другие пусть заботятся

В то время как все эти компании публично заявляют о своей приверженности принципам безопасного ИИ, в практические меры это не конвертируется: многие компании стремятся, по крайней мере, следовать формирующимся в настоящее время стандартам, однако глубина, специфичность и качество внедрения остаются неравномерными. Как следствие, методы обеспечения безопасности пока не отвечают требованиям, регламентированным нормативными актами, такими как Кодекс практики ЕС в области искусственного интеллекта.

Что касается экзистенциального фактора, то, как пишут исследователи, все компании наперегонки стремятся реализовать «настоящий» искусственный интеллект (AGI), но при этом демонстрируют полное отсутствие плана по обеспечению контроля над «суперинтеллектом» со стороны человека или, хотя бы удержания его в рамках кооперации. По сути, считают исследователи, наиболее существенный риск никого из ведущих вендоров не заботит.

«Корень проблемы состоит именно в отсутствии в настоящий момент каких-либо универсальных законодательных рамок, которые были бы направлены на практическое предотвращение угрозы со стороны «подлинного» искусственного интеллекта, когда и если таковой появится на свет, - считает Дмитрий Гвоздев, генеральный директор ООО «Информационные технологии будущего». - Ключевые вендоры - как коммерческие компании - озабочены финансовой выгодой и конкурентными преимуществами - кто первым войдёт в историю и заработает больше прибыли. Остальное - касающееся этической или общественно значимой стороной дела - находится в ведении законодателей. Применение технологии на уровне большой человеческой общности - будь то предприятие, регион или целая страна - требует не только наличия технологических решений, но и законодательной базы, а также понимания как это будет вплетено в жизненные реалии. Однако, похоже, всё ещё считают, что преамбула фильмов серии «Терминатор» - сугубая фантастика, которая не может стать реальностью в обозримом политическом будущем».

* 21 марта 2022 года Тверской суд Москвы признал Meta экстремистской организацией и запретил её деятельность на территории России.

Роман Георгиев

Короткая ссылка