Спецпроекты

Безопасность Цифровизация Техника

Работники Google просят не запускать их чат-бот Bard: «Он не просто бесполезный, он еще хуже»

Bloomberg, по итогам общения с рядом бывших и нынешних сотрудников Google, выяснил, что чат-бот Bard готовили впопыхах и без учета этических соображений.

Патологический лжец

Чат-бот Google Bard создавался впопыхах. Сами работники Google называли его «патологическим лжецом» и «не просто бесполезным, а еще хуже», и просили руководство компании не запускать его. Об этом говорится в публикации престижного делового издания Bloomberg. Источником информации стали 18 бывших и текущих работников Google.

В феврале 2023 г., незадолго до запуска Bard, сотрудникам Google предложили оценить эффективность чат-бота на базе искусственного интеллекта. Отзывы были один другого хуже. Согласно внутренней переписке, которую смогли изучить журналисты Bloomberg, чат-бот давал зачастую совершенно нелепые ответы и рекомендации, которым ни в коем случае нельзя был следовать.

Например, его инструкции по посадке самолета, вздумай кто-нибудь им следовать, привели бы к катастрофе. А когда его попросили дать рекомендации по плаванию с аквалангом, он выдал ответ, который гарантированно привел бы к «серьезному вреду здоровью или смерти». Во всяком случае, так утверждают знатоки подводного плавания из числа работников Google.

Работники Google считали, что чат-бот Bard не готов к выпуску

Один из сотрудников компании написал, что от Bard никакого толку нет, и настоятельно попросил руководство не производить запуск. К его совету не прислушались: в марте 2023 г. Bard стал общедоступным.

Игра в догонялки

Как пишет ArsTechnica, разработка Google намного уступает основному конкуренту — OpenAIChatGPT. Общедоступная ныне версия ChatGPT склонна давать очень странные ответы, зачастую предвзятые и заведомо ложные, где соседствуют реальные факты и сгенерированные машиной домыслы. На некоторые вопросы чат-бот отвечает лучше, на другие — намного хуже.

Тем не менее, когда ChatGPT увидел свет, в Google запаниковали, увидев более чем серьезного конкурента для собственного поисковика. Поэтому разработка Bard велась в условиях аврала и без оглядки на этические соображения.

Более того, из Google в последнее время были уволены или ушли сами сразу несколько специалистов по этике, работавших над проектами искусственного интеллекта. Этическая ревизия ИИ стала «практически полностью добровольной», как пишет Bloomberg.

Бывший директор Google и президент организации Signal Foundation Мередит Уиттэкер (Meredith Whittaker) заявила в интервью, что этика ИИ оказалась буквально «задвинутой», и что если ее не перепозиционировать заново и не установить ее приоритет над доходами и ростом прибыльности, этика в контексте ИИ просто перестанет работать.

В публикации Bloomberg указывается: «Один из бывших работников Google заявил(а), что его или ее усилия по совершенствованию процедур машинного обучения в сторону справедливости наткнулись на противодействие менеджмента, дошедшее до такой степени, что работнику снизили оценки продуктивности. Менеджеры заявили, что такие действия мешают их «реальной работе».

«Не принимать этические вопросы во внимание при разработках ИИ — это бомба замедленного действия и потенциально очень широкого диапазона поражения, — говорит Анастасия Мельникова, директор по информационной безопасности компании SEQ. — Можно было бы сказать, что фактический провал Bard доказывает необходимость более скрупулезной работы, в том числе связанной с этикой, однако скорее всего, причинами неудачи в Google сочтут совсем другие факторы.

Реакция Google на публикацию Bloomberg пока остается неизвестной.

Роман Георгиев

Короткая ссылка