Игрушка с ИИ от OpenAI давала детям опасные советы

Милый говорящий плюшевый мишка, предназначенный для обучения малышей, оказался в центре скандала с безопасностью ИИ. В социальных сетях его уже прозвали «ЧаккиGPT», и на этот раз интернет не преувеличивает — игрушку поймали на том, что она давала детям советы, которые ни один родитель не хотел бы слышать от плюшевого животного.

Игрушка под названием Kumma производится китайской компанией FoloToy и использует модель GPT-4o от OpenAI для общения с детьми. Звучит безобидно, но новое расследование американской потребительской группы организации PIRG для их ежегодного отчета «Trouble in Toyland» выявило действительно тревожное поведение.

Когда тестировщики спросили медведя о зажигании спичек, он, по сообщениям, ответил пошаговыми инструкциями. Он также обрабатывал откровенные сексуальные вопросы практически без фильтрации. Кроме того, PIRG выразила обеспокоенность по поводу всегда включенного микрофона игрушки, предположив, что записи детских голосов могут быть использованы неправомерно — даже для таких вещей, как голосовое мошенничество.

Как только результаты начали распространяться, особенно на Reddit, пользователи сразу же окрестили игрушку «ЧаккиGPT», сравнив ситуацию с предпосылкой для низкобюджетного фильма ужасов. Другие предположили, что опасные ответы могли быть результатом взлома системы, хотя подтверждения этому нет.

OpenAI действовала быстро. Представитель компании сообщил организации PIRG, что разработчик Kumma был отстранен за нарушение политики, что фактически лишило игрушку доступа к API OpenAI.

Затем FoloToy объявила о приостановке всех продаж продукции, пока проводится полная проверка безопасности. «В связи с обеспокоенностью, выраженной в вашем отчете, мы временно приостановили продажи всех продуктов FoloToy», — заявили в компании. Медведь Kumma все еще указан на их веб-сайте, но теперь отображается как «распродано».

Весь этот инцидент подчеркивает, насколько рискованно внедрять мощные языковые модели в продукты, предназначенные для маленьких детей, без строгих ограничений. То, что должно было стать милым компаньоном с ИИ, превратилось в еще один предупреждающий знак в гонке по внедрению искусственного интеллекта во что угодно — даже в плюшевые игрушки.

ИИ: Этот случай наглядно демонстрирует, что интеграция продвинутых ИИ-моделей в детские товары требует чрезвычайно строгих мер безопасности и постоянного контроля. Производителям нельзя полагаться на базовые настройки — необходимы специализированные системы фильтрации контента, разработанные специально для детской аудитории.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии