Спецпроекты

Безопасность Бизнес Законодательство Цифровизация ИТ в госсекторе

Регуляторы Евросоюза будут запрещать опасные для человека ИИ

Законопроект об искусственном интеллекте, который разрабатывается в ЕС, предполагает наделить регулирующие органы правом выгонять с рынка или заставлять переобучать искусственный интеллект, который считается слишком опасным. Эксперты, однако, критикуют предлагаемые меры как во многих смыслах недостаточные.

Кто опасен, а кто нет

В Евросоюзе разрабатывается акт об искусственном интеллекте (ИИ), который может наделить регулирующие органы правом ликвидировать или переобучать модели ИИ, если установлено, что их использование сопровождается высоким риском.

Как отмечает издание TechCrunch, данное обстоятельство указывает на то, что в законопроект заложен весьма существенный правоприменительный потенциал. Тем не менее, этот документ до сих пор критикуют как слишком беззубый и не способствующий достижению заявленных целей — формированию «заслуживающего доверия» и «человекоцентричного» ИИ.

Еврокомиссия представила проект акта об искусственном интеллекте более года назад. Проект предполагает жесткий запрет некоторых возможных способов применения, таких как создание систем наподобие китайского «социального рейтинга». Подобные проекты считаются слишком опасными для фундаментальных прав и свобод европейцев.

Другие способы применения ИИ предполагается регулировать исходя из рисков, которые они могут представлять, причем высокорискованные случаи реализации технологий ИИ предполагают надзор и до, и после их вывода на рынок.

nejro601.jpg
В Европе будут требовать переобучать «опасные» ИИ

К высокорискованным направлениям авторы документа относят биометрическую идентификацию и категоризацию людей (распознавание по лицам), управление критической инфраструктурой, ИИ в образовательной сфере и области профессиональной подготовки, найм, управление HR-процессами и самозанятостью, доступ к базовым частным и общественным услугам и льготам, защиту закона, миграцию, предоставление статуса беженцев и пограничный контроль, применение правосудия и демократических процессов (в частности, избирательных).

Согласно оригинальной версии законопроекта, почти ничего не запрещается однозначно, а большая часть сфер применения ИИ не подвергается жесткому регулированию, поскольку они считаются низкорискованными и подлежащими рыночной саморегуляции. Предполагалось, что достаточно кодекса стандартов для ИИ, которому каждый поставщик решений должен следовать добровольно, и схемы сертификации ИИ на соответствие этим стандартам.

В свою очередь, дипфейки и чатботы считаются «пограничной» областью и к ним предлагается предъявлять особые требования в плане прозрачности, чтобы исключить злоупотребления.

Окончательное согласование проекта намечено на 2023 г., и к этому моменту он может измениться.

Пользователи или операторы

Правозащитные группы еще осенью 2021 г. отметили, что законопроект никак не учитывает актуальные проблемы с ИИ, в том числе проявляемые им дискриминацию и предвзятость. Кроме того, правозащитные организации выступают за более строгий запрет биометрической идентификации людей с помощью ИИ, чем тот, который предложен в черновом проекте: там запрещается только использование таких технологий правоохранительными органами, и то с массой оговорок.

Эксперты Института им. Ады Лавлейс (Ada Lovelace Institute) указали в недавно опубликованной работе на некоторые ограничения законопроекта, связанные с его привязкой к внутреннему рыночному законодательству ЕС. Законопроект написан в том же ключе, что и существующие в Европе правила контроля над материальными продуктами. Как следствие, большая часть ответственности за системы ИИ ложится на производителей.

Этот подход авторы работы не считают правильным. По мнению основного автора исследования Лилиан Эдвардс (Lilian Edwards), на пользователей систем ИИ следует распространить куда большую меру ответственности. Предлагается считать их deployers, то есть практическими операторами, от которых зависит непосредственное применение систем ИИ. Пусть даже оценить эту меру ответственности будет непросто.

«Преобразовать это сложнейшее переплетение участников, данных, моделей и сервисов в юридическую плоскость и сформулировать единый правовой режим, в котором определяются обязанности и права отдельных участников процесса — чрезвычайно сложно, — отметила Эдвардс. — Законопроект не выполняет задачу, действительно сложную. Это надо признать, — по определению и разграничению единоличной и групповой ответственности в контексте жизненного цикла ИИ, чтобы фундаментальные права конечных пользователей были защищены на практическом уровне самым исчерпывающим образом».

По словам Эдвардс, ситуация сравнима в негативном смысле с тем, как в последнее время в судах рассматриваются дела, связанные с законом GDPR (Общеевропейский закон о защите информации). Суды пытаются распределить ответственность по защите данных между различными регуляторами в зависимости от текущего контекста.

Кроме того, Эдвардс отмечает, что в законопроекте никак не прописаны возможности отдельных людей и групп подавать жалобы на последствия применения ИИ, в отличие от практики правоприменения GDPR, где и индивидуальные лица, и объединения могут подавать жалобы и иски по поводу нарушения их прав.

Критике Эдвардс подвергла и список запрещаемых способов применения ИИ в том виде, в каком он представлен в законопроекте. Этот список, по ее мнению, мотивирован исключительно политическими, а не практическими соображениями, и при этом никак не предусмотрены возможности его расширения или других изменений.

Эдвардс высоко оценила сам факт появления законопроекта, но считает, что в нынешнем виде он будет иметь очень небольшое значение и едва ли станет образцом для подражания в других странах.

Чему быть, чему не быть

С другой стороны, законопроект предполагает, что регулирующие органы смогут требовать устранения высокорисковых коммерческих ИИ-решений с рынка или требовать переобучения базовой модели, чтобы снизить риски, которые она представляет.

GDPR не предусматривает таких полномочий: индивидуальные пользователи могут потребовать удаления своих данных из той или иной системы, но это не значит, что подлежащая модель машинного обучения тоже будет ликвидирована. Например, в случае с Clearview AIразработчиком систем распознавания лиц — регуляторам удалось добиться удаления сведений о гражданах Евросоюза, но заставить компанию ликвидировать или переобучить базовую модель они не смогли.

Похоже, что новый законопроект обеспечит регуляторов и правом заставлять поставщиков систем переобучать свои модели на основе более качественно подобранных данных.

«Законопроект в его нынешнем виде, похоже, наделяет регулирующие органы очень широкими полномочиями по контролю над коммерческими реализациями ИИ. Правда, неясно, будет ли в их полномочия входить контроль именно над исходными данными, на которых обучается модель, — говорит Анастасия Мельникова, директор по информационной безопасности компании SEQ. — Также остаются вопросы относительно возможных случаев, когда ИИ создается с заведомо криминальными целями, а ожидать, что такого не будет, крайне наивно и опрометчиво. В любом случае, нынешний законопроект совершенно не обязательно задаст универсальный стандарт в отношении искусственного интеллекта: в разных культурах он будет реализовываться и применяться очень по-разному».

Роман Георгиев

Короткая ссылка