Anthropic изменила политику данных: пользователям Claude нужно отказаться от обучения ИИ на их диалогах

/ (Обновлено: ) / ТехнологииНовости / Технологии

Компания Anthropic ввела значительные изменения в политику обработки данных пользователей своего ИИ-ассистента Claude. Теперь всем пользователям до 28 сентября 2025 года необходимо решить, разрешают ли они использовать свои беседы и сессии программирования для обучения моделей искусственного интеллекта.

Ранее Anthropic не использовала данные чатов обычных пользователей для обучения моделей и автоматически удаляла промпты и результаты бесед из своих систем в течение 30 дней. Теперь же для тех, кто не откажется от участия, компания будет хранить данные до пяти лет.

Изменения касаются пользователей Claude Free, Pro и Max, включая тех, кто использует Claude Code. Корпоративные клиенты, пользующиеся Claude Gov, Claude for Work, Claude for Education или доступом через API, не затронуты этими нововведениями.

Anthropic утверждает, что сбор данных поможет «улучшить безопасность моделей» и повысить точность обнаружения вредоносного контента, а также улучшить навыки будущих версий Claude в программировании, анализе и логике.

Однако, как отмечает The Verge, реализация нового соглашения вызывает опасения. Существующие пользователи сталкиваются с всплывающим окном, где крупный текст «Обновления условий и политик» и выделяющаяся черная кнопка «Принять» сопровождаются гораздо менее заметным переключателем разрешения на обучение ИИ, который по умолчанию установлен в положение «Вкл.».

Эксперты по конфиденциальности давно предупреждают, что сложность технологий ИИ делает осознанное согласие пользователей практически недостижимым. Федеральная торговая комиссия США ранее предупреждала компании ИИ о рисках принудительных мер если они занимаются «тайным изменением условий обслуживания или политики конфиденциальности».

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Технологии