OpenAI выпустила открытые инструменты для защиты подростков в приложениях с ИИ
Компания OpenAI объявила во вторник о выпуске набора промптов (текстовых шаблонов), которые разработчики смогут использовать для повышения безопасности своих приложений для подростков. Лаборатория искусственного интеллекта заявила, что этот набор политик безопасности для подростков можно использовать с её открытой моделью безопасности под названием gpt-oss-safeguard.
Вместо того чтобы начинать с нуля и придумывать, как сделать ИИ безопаснее для подростков, разработчики могут использовать эти промпты для усиления защиты своих продуктов. Они затрагивают такие проблемы, как графическое насилие и сексуальный контент, вредные идеалы тела и поведения, опасные виды деятельности и челленджи, романтические или жестокие ролевые игры, а также товары и услуги с возрастными ограничениями.
Эти политики безопасности разработаны в виде промптов, что делает их легко совместимыми с другими моделями, помимо gpt-oss-safeguard, хотя, вероятно, они наиболее эффективны в собственной экосистеме OpenAI.
Для создания этих промптов OpenAI сотрудничала с организациями по безопасности ИИ — Common Sense Media и everyone.ai.
«Эти промпт-политики помогают установить значимый базовый уровень безопасности в экосистеме, и поскольку они выпущены как открытый исходный код, их можно адаптировать и улучшать со временем», — заявил Робби Торни, глава отдела оценки ИИ и цифровых технологий в Common Sense Media.
OpenAI отметила в своём блоге, что разработчики, включая опытные команды, часто сталкиваются с трудностями при переводе целей безопасности в точные, рабочие правила.
«Это может привести к пробелам в защите, непоследовательному применению правил или чрезмерно широкой фильтрации, — написала компания. — Чёткие, хорошо определённые политики являются критически важной основой для эффективных систем безопасности».
OpenAI признаёт, что эти политики не являются решением сложных проблем безопасности ИИ. Но они основываются на предыдущих усилиях компании, включая защитные меры на уровне продукта, такие как родительский контроль и определение возраста. В прошлом году OpenAI обновила руководящие принципы для своих больших языковых моделей — известные как Model Spec — чтобы решить, как её модели ИИ должны взаимодействовать с пользователями младше 18 лет.
Однако у самой OpenAI не самая безупречная репутация в этом вопросе. Компания столкнулась с несколькими исками, поданными семьями людей, покончивших с собой после чрезмерного использования ChatGPT. Такие опасные отношения часто формируются после того, как пользователь обходит защитные механизмы чат-бота, и ни одна модель не имеет полностью непреодолимых ограничений. Тем не менее, эти политики — как минимум шаг вперёд, особенно с учётом того, что они могут помочь независимым разработчикам.
Интересный факт: В 2025 году OpenAI представила свою первую открытую модель безопасности gpt-oss-safeguard, что стало частью стратегии компании по созданию более прозрачных и проверяемых систем ИИ. Ранее подобные инструменты были доступны в основном крупным корпорациям с собственными командами исследователей безопасности.







0 комментариев