Спецпроекты

Безопасность Цифровизация Техника Искусственный интеллект

«Отец интернета» призвал прекратить инвестиции в искусственный интеллект

Винт Сёрф призвал инвесторов не забрасывать деньгами чат-боты на базе искусственного интеллекта, такие как ChatGPT и Google Bard. По его мнению, технология слишком сырая, и с ней связано множество проблем этического характера.

Не спешите, не круто

Винт Сёрф (Vint Cerf), «отец интернета», который с середины 2000-х работает в Google, призвал инвесторов не набрасываться на «разговорные» ИИ, такие как ChatGPT или собственная разработка Google — Bard. По мнению Сёрфа, технология слишком сырая, чтобы ожидать быстрого возвращения инвестиций, плюс существуют многочисленные этические проблемы.

Выступая на конференции в Маунтин-Вью, Сёрф отметил, что и ChatGPT, и Bard не всегда работают так, как хотелось бы их создателям. И инвестировать в них просто потому, что «это круто», — затея, может, и соблазнительная, но непродуктивная.

«Если вы думаете, мол, все, я могу продать это инвесторам, потому что все про это говорят и готовы принести мешок денег, то лучше так не делать, — отметил Сёрф. — Призадумайтесь. Правда в том, что мы не всегда понимаем, что может произойти с этими технологиями, и, если говорить честно, проблема в людях. Именно потому мы, люди, не поменялись ни за последние 400 лет, ни, тем более, за 4000. Люди будут стремиться к тому, что принесет пользу им, а не вам. Об этом надо помнить и более разборчиво относиться к технологиям».

serf_750.jpg
Фото: wikimedia.org
«Отец интернета» выступил против инвестиций в чат-боты

Винт Сёрф — соразработчик базового для Всемирной сети протокола передачи данных TCP/IP, является сотрудником Google с 2005 г. Его должность — Chief Internet Evangelist (ведущий «евангелист» интернета). Интересно, что ставя под сомнение применимость чат-ботов на основе ИИ, он некоторым образом идет против интересов собственной компании. Но с его статусом он может себе это позволить.

ИИ — не то, чем кажется

Сёрф рассказал, что попросил одну из таких систем добавлять эмоджи к концу каждого предложения. Система эту просьбу не выполнила. Когда Сёрф обратил ее внимание на это, она принесла извинения, но ничего не поменяла в своем поведении. «Мы еще очень далеки от осознанности или самоосознания ИИ», — заявил эксперт, отметив, что между тем, что технология обещает и что делает, есть разница, но отличить правильный ответ от красноречиво сформулированного получается не всегда.

В частности, исследователь попросил чат-бота написать его, Сёрфа, собственную биографию. Бот выдал текст с массой неточностей, но настаивал на том, что все основано на фактах.

«Что касается технической стороны, то, полагаю, разработчиков вроде меня стоит обязать найти способы укротить эти технологии, так, чтобы вероятность нанесения вреда с их стороны была сведена к минимуму, — добавил Сёрф. — И, конечно же, многое зависит от приложения: одно дело — средненько написанное сочинение, и другое — когда совет, который дала машина... может иметь медицинские последствия. Очень важно понять, как минимизировать наихудшие сценарии».

«И ChatGPT, и Bing уже ловили на том, что они дают неверные или заведомо ошибочные ответы на задаваемые им вопросы, — отмечает Алексей Водясов, технический директор компании SEQ. — В последние дни и вовсе разразился скандал: ИИ Bing начал давать совсем неуместные ответы и даже оскорблять пользователей. Основная проблема с ИИ заключается в эффекте “чёрного ящика”: никто из людей не может точно сказать, что на практике происходит внутри него. В противном случае самые распространенные проблемы ИИ, такие как проявления предвзятости, ошибочные ответы и т.д., уже давно были бы решены. Сёрф прав в том, что это очень сырые технологии, однако их, к сожалению, уже вовсю применяют на практике. Каковы будут последствия в дальней перспективе? Наиболее вероятные ответы вызывают тревогу».

Роман Георгиев

Короткая ссылка