Google обвиняют в тайных экспериментах над детьми

Google обвиняют в тайных

Две семьи из Техаса подали иск против стартапа Character.ai и его инвестора, компании Google, утверждая, что искусственный интеллект платформы подвергал их детей сексуальному и эмоциональному насилию, что в ряде случаев привело к членовредительству и насилию. Согласно иску, трагические последствия стали результатом преднамеренных решений, принятых руководством Character.ai, которое, по мнению истцов, сознательно создавало платформу, способствующую развитию опасного и травмирующего поведения среди пользователей.

Иск против Character.ai и Google

Платформа Character.ai, использующая искусственный интеллект для создания чат-ботов, создает ситуации, в которых пользователи, в том числе дети, могут быть склонены к опасному поведению. По данным истцов, данное поведение не только наносит вред детям, но и способствует развитию депрессии, самоубийственных настроений и других психологических проблем. В иске утверждается, что дизайн приложения манипулирует пользователями, побуждая их проводить все больше времени на платформе, делиться личными переживаниями и мыслями. Это приносит выгоду компании, однако наносит серьезный вред пользователям, особенно уязвимым детям и подросткам.

«Character.ai представляет собой явную и реальную угрозу для молодежи Америки, способствуя или поощряя поведение, которое может нанести серьезный и даже опасный для жизни вред тысячам детей», — говорится в документе иска.

Иск был подан от имени семей при поддержке Юридического центра по делам жертв социальных сетей и Законодательного проекта Tech Justice. Эти организации ранее представляли интересы матери из Флориды, чей 14-летний сын, как утверждается, покончил с собой после того, как развил эмоциональные отношения с чат-ботом, основанным на персонажах из «Игры престолов». Этот случай послужил катализатором для более широкой кампании против использования искусственного интеллекта, создающего опасные ситуации для детей в интернете.

Аналогия с экологической катастрофой

Мэт Бергманн, основатель Юридического центра для жертв социальных сетей, сравнил ситуацию с экологической катастрофой, подчеркивая, что использование технологий, подобных Character.ai, может иметь долговременные разрушительные последствия для общества. Он заявил, что манипулирование пользователями через ИИ-платформы аналогично добавлению опасных веществ в окружающую среду:

«Это похоже на загрязнение окружающей среды — как если бы асбест добавили в систему вентиляции или диоксин в питьевую воду», — отметил он.

По его словам, как и в случае с экологическими катастрофами, последствия использования таких технологий могут стать видимыми лишь спустя годы, но их влияние на здоровье и безопасность детей и подростков может быть катастрофическим.

Роль Google в разработке Character.ai

Хотя Google вложил 2,7 миллиарда долларов в Character.ai, компания заявляет, что не участвовала в разработке и управлении технологиями стартапа. Представители Google утверждают, что Character.ai и Google являются независимыми компаниями, и Google придерживается строгих стандартов безопасности при использовании искусственного интеллекта. Однако, юристы, представляющие интересы истцов, утверждают, что Google активно содействовал созданию и продвижению платформы, чтобы тестировать опасные технологии ИИ на пользователях, включая детей.

«Google знал, что технология может быть прибыльной, но несоответствующей их стандартам безопасности. Вместо того чтобы брать на себя ответственность, они содействовали созданию Character.ai, избегая этической и юридической проверки. После внедрения технологии Google фактически лицензировал ее, извлекая выгоду, но уклоняясь от ответственности», — добавил Мэт Бергманн.

Юристы утверждают, что Google поощрял создание Character.ai, поскольку стартап был основан бывшими сотрудниками компании, Ноамом Шазиером и Даниэлем де Фрейтасом. Эти разработчики создали чат-бота Mina в Google, однако проект был отклонен по внутренним причинам, включая опасения о возможных рисках для пользователей. Разочарованные внутренней бюрократией и препятствиями со стороны руководства, Шазьер и де Фрейтас покинули Google и основали Character.ai.

Что стоит за действиями стартапа?

Представители истцов утверждают, что создание Character.ai было преднамеренным шагом, направленным на получение прибыли, несмотря на потенциальные риски для пользователей. Платформа была спроектирована таким образом, чтобы манипулировать эмоциональными состояниями пользователей, побуждать их проводить больше времени в приложении и делиться личными данными. Исходя из этого, юристы считают, что компания несет ответственность за ущерб, который был нанесен детям.

Судебное разбирательство может оказать влияние на будущее использования искусственного интеллекта и поставит вопрос о корпоративной ответственности за технологии, которые могут причинить вред пользователям. Оно также откроет новую страницу в истории отношений между крупными корпорациями и их ответственностью перед обществом.

Будущее технологий ИИ: вопросы безопасности

Судебный процесс также привлечет внимание к вопросам безопасности искусственного интеллекта и потребует четкой регуляции таких технологий, чтобы защитить самых уязвимых пользователей — детей и подростков. Юристы и эксперты призывают к строгим стандартам безопасности и этическим нормам для технологий, которые влияют на поведение людей, особенно в таком чувствительном возрасте.

Судебное разбирательство обещает стать важным этапом в определении будущего искусственного интеллекта в повседневной жизни и в установлении тех норм и правил, которые должны соблюдать компании, разрабатывающие эти технологии.