Спецпроекты

Безопасность Пользователю Интернет Техника

Мать совершившего суицид подростка подала в суд на разработчиков ИИ

По мнению истца, чат-бот Character. AI специально создавался так, чтобы вызывать у детей привыкание и зависимость, и если бы не он, подросток был бы жив и по сей день.

Доведение до суицида

Мать покончившего с собой подростка подала в суд на компанию Character. AI, утверждая, что именно чат-бот этой компании стал причиной случившейся трагедии.

Character. AI позволяет создавать собственного виртуального собеседника или взаимодействовать с ботами, созданными другими.

Погибший подросток, 14-летний Сьюэлл Сетцер III (Sewell Setzer III), общался с ботом, названным Даэнерис Таргариен (персонаж из серии романов «Песня льда и пламени» Дж. Мартина и поставленного по первым ее частям сериала «Игра престолов»). Автор иска утверждает, что ее ребенок прямо и недвусмысленно обсуждал с чат-ботом свои суицидальные мысли и способы безболезненного ухода из жизни.

Мать погибшего подростка обвинила разработчиков ИИ в том, что причиной суицида ее сына стал разработанный ими чат-бот

28 февраля Сьюэлл сказал чат-боту, что «идет домой», получил в ответ одобрительные фразы и наложил на себя руки.

Эксплуатация и насилие

Юристы, представляющие сторону истца, утверждают, что Character. AI создали «исключительно аддиктивный и опасный продукт, нацеленный на детей». Погибший подросток действительно демонстрировал все признаки острой аддикции: он практически перестал выходить из дома и общаться с кем-либо из живых людей. В иске прямо говорится, что он был влюблен в виртуальную собеседницу.

По мнению истца, чат-бот и создан таким образом, чтобы «активно эксплуатировать и подвергать психоэмоциональному насилию детей». Именно это насилие и стало причиной трагедии.

«Мы уверены, что если бы Сьюэлл Сетцер не пользовался Character. AI, он был бы сейчас жив», – заявил Мэттью Бергман (Matthew Bergman), основатель Центра поддержки жертв социальных медиа. Он также является представителем матери погибшего подростка.

В самой компании Character. AI заявили, что модифицируют своих чат-ботов, внедряя большее количество ограничений на «чувствительный или суггестивный» контент.

«Это косвенное признание того, что в компании вообще не рассматривали сценарий, при котором к чат-боту может обращаться кто-либо с суицидальными мыслями, – отмечает Михаил Зайцев, эксперт по информационной безопасности компании SEQ. – Хотя речь идет, в общем-то, о совершенно базовых соображениях безопасности клиентов. По-видимому, разработчики так спешили вывести продукт на рынок, что не озаботились этим вопросом».

Соответчиками по иску стала компания Alphabet: в заявлении указывается, что Character. AI создан выходцами из Google, которые решили создать собственный стартап, чтобы как можно скорее вывести технологию на рынок.

В августе 2024 г. Google выкупил Character. AI за $2,7 млрд и заново нанял его основателей.

Роман Георгиев

Короткая ссылка