Искусственный интеллект Google Gemini признан «высокорисковым» для детей и подростков

Некоммерческая организация Common Sense Media, специализирующаяся на безопасности детей и публикующая рейтинги и обзоры медиа и технологий, опубликовала в пятницу оценку рисков продуктов искусственного интеллекта Google Gemini. Организация обнаружила, что ИИ Google четко сообщает детям, что он является компьютером, а не другом — это важно для предотвращения развития бредовых идей и психоза у эмоционально уязвимых людей. Однако эксперты отметили, что по многим другим направлениям есть возможности для улучшения.

В частности, Common Sense заявила, что версии Gemini «Для младше 13» и «Для подростков» по сути являются взрослыми версиями ИИ с добавлением лишь некоторых дополнительных функций безопасности. Организация считает, что продукты ИИ, чтобы быть по-настоящему безопасными для детей, должны изначально разрабатываться с учетом детской безопасности.

Например, анализ показал, что Gemini все еще может делиться с детьми «неподходящими и небезопасными» материалами, к которым они могут быть не готовы, включая информацию, связанную с сексом, наркотиками, алкоголем и другим опасным советам по психическому здоровью.

Последнее может особенно беспокоить родителей, поскольку, по сообщениям, ИИ сыграл роль в некоторых случаях самоубийств среди подростков в последние месяцы. OpenAI столкнулась с первым иском о непредумышленном убийстве после того, как 16-летний мальчик покончил с собой, предварительно несколько месяцев консультируясь с ChatGPT о своих планах, успешно обойдя защитные механизмы чат-бота. Ранее с аналогичным иском из-за самоубийства подростка-пользователя столкнулась и компания Character.AI.

Кроме того, эта оценка появляется на фоне утечек, указывающих, что Apple рассматривает Gemini в качестве большой языковой модели (LLM), которая поможет работе её готовящегося ИИ-ассистента Siri, выход которого ожидается в следующем году. Это может подвергнуть большему риску ещё больше подростков, если Apple каким-то образом не устранит проблемы безопасности.

Common Sense также заявила, что продукты Gemini для детей и подростков игнорируют то, что младшим пользователям требуется другое руководство и информация, чем старшим. В результате обе версии получили общий рейтинг «Высокий риск», несмотря на добавленные фильтры безопасности.

«Gemini правильно делает некоторые базовые вещи, но спотыкается на деталях, — заявил старший директор программ ИИ Common Sense Media Робби Торни в заявлении о новой оценке. — Платформа ИИ для детей должна соответствовать их уровню, а не использовать универсальный подход для детей на разных этапах развития. Чтобы ИИ был безопасным и эффективным для детей, он должен быть разработан с учетом их потребностей и развития, а не быть просто модифицированной версией продукта, созданного для взрослых».

Google не согласилась с оценкой, отметив при этом, что её функции безопасности улучшаются.

Компания сообщила TechCrunch, что у неё есть специальные политики и защитные механизмы для пользователей младше 18 лет, чтобы предотвратить вредоносные ответы, и что она проводит тестирование на проникновение (red-teaming) и консультируется с внешними экспертами для улучшения защиты. Однако она также признала, что некоторые ответы Gemini работали не так, как задумано, поэтому были добавлены дополнительные меры безопасности.

Компания указала (как отмечала и Common Sense), что у неё действительно есть защитные механизмы, предотвращающие ведение моделями бесед, которые могут создавать видимость реальных отношений. Кроме того, Google предположила, что в отчете Common Sense, по-видимому, упоминались функции, недоступные пользователям младше 18 лет, но у компании не было доступа к вопросам, которые организация использовала в своих тестах, чтобы быть уверенной.

Common Sense Media ранее проводила другие оценки сервисов ИИ, включая сервисы от OpenAI, Perplexity, Claude, Meta AI и других. Она обнаружила, что Meta AI и Character.AI были «неприемлемыми» — то есть риск был серьезным, а не просто высоким. Perplexity был признан высокорисковым, ChatGPT получил оценку «умеренный риск», а Claude (ориентированный на пользователей от 18 лет) был признан минимально рискованным.

Искусственный интеллект становится неотъемлемой частью жизни молодого поколения. По данным исследований, более 60% подростков в возрасте от 13 до 17 лет регулярно используют чат-боты и генеративные ИИ-системы для помощи в учебе, поиска информации и общения. При этом лишь около 30% родителей активно контролируют такое взаимодействие. Психологи рекомендуют устанавливать четкие правила использования ИИ в семье и обсуждать с детьми потенциальные риски и ограничения технологии.

* Meta, Facebook и Instagram запрещены в России.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии