Anthropic изменила политику данных: пользователям Claude нужно отказаться от обучения ИИ на их диалогах
Компания Anthropic ввела значительные изменения в политику обработки данных пользователей своего ИИ-ассистента Claude. Теперь всем пользователям до 28 сентября 2025 года необходимо решить, разрешают ли они использовать свои беседы и сессии программирования для обучения моделей искусственного интеллекта.
Ранее Anthropic не использовала данные чатов обычных пользователей для обучения моделей и автоматически удаляла промпты и результаты бесед из своих систем в течение 30 дней. Теперь же для тех, кто не откажется от участия, компания будет хранить данные до пяти лет.
Изменения касаются пользователей Claude Free, Pro и Max, включая тех, кто использует Claude Code. Корпоративные клиенты, пользующиеся Claude Gov, Claude for Work, Claude for Education или доступом через API, не затронуты этими нововведениями.
Anthropic утверждает, что сбор данных поможет «улучшить безопасность моделей» и повысить точность обнаружения вредоносного контента, а также улучшить навыки будущих версий Claude в программировании, анализе и логике.
Однако, как отмечает The Verge, реализация нового соглашения вызывает опасения. Существующие пользователи сталкиваются с всплывающим окном, где крупный текст «Обновления условий и политик» и выделяющаяся черная кнопка «Принять» сопровождаются гораздо менее заметным переключателем разрешения на обучение ИИ, который по умолчанию установлен в положение «Вкл.».
Эксперты по конфиденциальности давно предупреждают, что сложность технологий ИИ делает осознанное согласие пользователей практически недостижимым. Федеральная торговая комиссия США ранее предупреждала компании ИИ о рисках принудительных мер если они занимаются «тайным изменением условий обслуживания или политики конфиденциальности».
0 комментариев