Спецпроекты

Безопасность Бизнес Законодательство ИТ в госсекторе Техника Искусственный интеллект

Создатель ChatGPT собрался уходить из Европы из-за очень неудобного закона

Новый законопроект ЕС потребует от разработчиков генеративных ИИ раскрыть информацию о том, как и на чем они обучали свои модели. А этого OpenAI делать категорически не хочет, поскольку может пострадать и бизнес-модель, и банковский счет.

Глубокая обеспокоенность

Компания OpenAI, разработчик ChatGPT, может уйти из Европы, если ЕС примет закон о регулировании искусственного интеллекта (ИИ) в том виде, в котором сейчас существует его проект.

Как заявил журналистам глава компании Сэм Олтман (Sam Altman), Акт об искусственном интеллекте Евросоюза, находящийся на финальных этапах разработки, вызывает у него большую озабоченность.

Дело в том, что разработчики законопроекта внесли в него некоторые новые обязательства «фундаментальных моделей» — крупномасштабных ИИ-систем, которые составляют основу сервисов типа ChatGPT и DALL-E.

«Эти детали значат очень многое, — заявил Олтман. — Мы будем пытаться соответствовать им, но если это не получится, придется свернуть деятельность».

Глава OpenAI боится нового законопроекта ЕС об искусственном интеллекте

Позднее он попытался смягчить свое высказывание, отметив, что планов покинуть Европу у его компании нет, однако в комментариях журналистам Time он заявил, что новое законодательство присвоит ChatGPT статус «источника высокого риска», и это заставит компанию подчиняться усиленным требованиям по безопасности и прозрачности. «Мы либо сможем добиться соответствия этим требованиям, либо нет. Существуют технические ограничения для наших возможностей», — заявил глава OpenAI.

Растворенный копирайт

Кроме «технических ограничений» законопроект представляет потенциальную угрозу бизнес-модели OpenAI. Одно из положений законопроекта требует от создателей фундаментальных моделей раскрыть подробности того, как они создаются и функционируют: какие вычислительные мощности требуются, сколько времени уходит на обучение модели и другие сведения, относящиеся к размеру и функциональности модели.

Ну а главное, требуется раскрыть информацию о том, какие защищенные копирайтом данные использовались для обучения. Компания OpenAI в течение какого-то времени раскрывала эти данные, но постепенно прекратила это делать, ссылаясь на растущую коммерческую значимость ее разработок.

В марте 2023 г. сооснователь OpenAI Илья Суцкевер (Ilya Sutskever) заявил изданию The Verge, что компании вообще не следовало раскрывать такое количество информации, и что держать в секрете методики обучения ИИ и источники данных необходимо для того, чтобы помешать конкурентам копировать работу OpenAI.

Существенно и то, что если OpenAI раскроет источники защищенных копирайтом данных, то это станет поводом для массовой подачи исков со стороны правообладателей. Генеративные ИИ-системы, такие как ChatGPT и DALL-E, обучаются на основе огромных массивов данных, собранных из Всемирной сети. Немалая, если не большая часть этих данных, кому-то принадлежит, но разрешения использовать их никто у правообладателей не спрашивал.

Это уже привело к некоторым искам. Например, против Stability AI в суд подал стоковый ресурс GettyImages: по мнению истца, Stability AI использовали изображения Getty для обучения своего ИИ, не имея на это права.

Против OpenAI, в свою очередь, подала иск американский комик и автор Сара Силверман (Sarah Silverman), которая также утверждает, что OpenAI использовал ее работы при обучении ChatGPT без разрешения. К ее иску уже присоединились два других автора — Кристофер Голден (Christopher Golden) и Ричард Кэдри (Richard Kadrey), сообщает The Guardian.

Любопытно, что Олтман в недавнем прошлом заявил американским политикам, что регулирование ИИ необходимо, но применять его следует в отношении будущих, более мощных систем. Европейский законопроект сосредоточен на нынешних системах.

«Создатели генеративных ИИ оказываются в очень щекотливом положении: если европейский закон об ИИ будет принят в его нынешнем виде, все эти чудеса техники окажутся в первую очередь “паразитическими сущностями”, которые производят коллажи из чужого творчества, — говорит Алексей Водясов, технический директор компании SEQ. — В то время как это секрет Полишинеля, открытое признание этого факта в соответствии с требованиями нового законодательства может сказаться на репутации разработчиков ИИ, а указание на работы конкретных правообладателей, скорее всего, приведет к повальным искам. И если, допустим, Google с его капитализацией сможет позволить себе потратить значительные средства на урегулирование исков, то у OpenAI таких средств может не найтись. В любом случае можно гарантировать, что сейчас в ЕС начнется интенсивное лоббирование в пользу смягчения требований закона».

Роман Георгиев

Короткая ссылка