Искусственный интеллект Google Gemini признан «высокорисковым» для детей и подростков
Некоммерческая организация Common Sense Media, специализирующаяся на безопасности детей и публикующая рейтинги и обзоры медиа и технологий, опубликовала в пятницу оценку рисков продуктов искусственного интеллекта Google Gemini. Организация обнаружила, что ИИ Google четко сообщает детям, что он является компьютером, а не другом — это важно для предотвращения развития бредовых идей и психоза у эмоционально уязвимых людей. Однако эксперты отметили, что по многим другим направлениям есть возможности для улучшения.
В частности, Common Sense заявила, что версии Gemini «Для младше 13» и «Для подростков» по сути являются взрослыми версиями ИИ с добавлением лишь некоторых дополнительных функций безопасности. Организация считает, что продукты ИИ, чтобы быть по-настоящему безопасными для детей, должны изначально разрабатываться с учетом детской безопасности.
Например, анализ показал, что Gemini все еще может делиться с детьми «неподходящими и небезопасными» материалами, к которым они могут быть не готовы, включая информацию, связанную с сексом, наркотиками, алкоголем и другим опасным советам по психическому здоровью.
Последнее может особенно беспокоить родителей, поскольку, по сообщениям, ИИ сыграл роль в некоторых случаях самоубийств среди подростков в последние месяцы. OpenAI столкнулась с первым иском о непредумышленном убийстве после того, как 16-летний мальчик покончил с собой, предварительно несколько месяцев консультируясь с ChatGPT о своих планах, успешно обойдя защитные механизмы чат-бота. Ранее с аналогичным иском из-за самоубийства подростка-пользователя столкнулась и компания Character.AI.
Кроме того, эта оценка появляется на фоне утечек, указывающих, что Apple рассматривает Gemini в качестве большой языковой модели (LLM), которая поможет работе её готовящегося ИИ-ассистента Siri, выход которого ожидается в следующем году. Это может подвергнуть большему риску ещё больше подростков, если Apple каким-то образом не устранит проблемы безопасности.
Common Sense также заявила, что продукты Gemini для детей и подростков игнорируют то, что младшим пользователям требуется другое руководство и информация, чем старшим. В результате обе версии получили общий рейтинг «Высокий риск», несмотря на добавленные фильтры безопасности.
«Gemini правильно делает некоторые базовые вещи, но спотыкается на деталях, — заявил старший директор программ ИИ Common Sense Media Робби Торни в заявлении о новой оценке. — Платформа ИИ для детей должна соответствовать их уровню, а не использовать универсальный подход для детей на разных этапах развития. Чтобы ИИ был безопасным и эффективным для детей, он должен быть разработан с учетом их потребностей и развития, а не быть просто модифицированной версией продукта, созданного для взрослых».
Google не согласилась с оценкой, отметив при этом, что её функции безопасности улучшаются.
Компания сообщила TechCrunch, что у неё есть специальные политики и защитные механизмы для пользователей младше 18 лет, чтобы предотвратить вредоносные ответы, и что она проводит тестирование на проникновение (red-teaming) и консультируется с внешними экспертами для улучшения защиты. Однако она также признала, что некоторые ответы Gemini работали не так, как задумано, поэтому были добавлены дополнительные меры безопасности.
Компания указала (как отмечала и Common Sense), что у неё действительно есть защитные механизмы, предотвращающие ведение моделями бесед, которые могут создавать видимость реальных отношений. Кроме того, Google предположила, что в отчете Common Sense, по-видимому, упоминались функции, недоступные пользователям младше 18 лет, но у компании не было доступа к вопросам, которые организация использовала в своих тестах, чтобы быть уверенной.
Common Sense Media ранее проводила другие оценки сервисов ИИ, включая сервисы от OpenAI, Perplexity, Claude, Meta AI и других. Она обнаружила, что Meta AI и Character.AI были «неприемлемыми» — то есть риск был серьезным, а не просто высоким. Perplexity был признан высокорисковым, ChatGPT получил оценку «умеренный риск», а Claude (ориентированный на пользователей от 18 лет) был признан минимально рискованным.
Искусственный интеллект становится неотъемлемой частью жизни молодого поколения. По данным исследований, более 60% подростков в возрасте от 13 до 17 лет регулярно используют чат-боты и генеративные ИИ-системы для помощи в учебе, поиска информации и общения. При этом лишь около 30% родителей активно контролируют такое взаимодействие. Психологи рекомендуют устанавливать четкие правила использования ИИ в семье и обсуждать с детьми потенциальные риски и ограничения технологии.
* Meta, Facebook и Instagram запрещены в России.
0 комментариев