Copilot читал конфиденциальные письма пользователей: Microsoft признала ошибку

Microsoft подтвердила наличие уязвимости в Microsoft 365 Copilot, из-за которой с конца января искусственный интеллект мог несанкционированно читать и резюмировать электронные письма пользователей, помеченные как «конфиденциальные». При этом система обходила корпоративные политики защиты от утечек данных (DLP).

Как сообщает BleepingComputer, проблема была впервые обнаружена 21 января и затрагивала чат-функцию на вкладке Copilot в рабочих приложениях. Ошибка заключалась в том, что Copilot некорректно обрабатывал содержимое папок «Отправленные» и «Черновики», даже если письма в них были помечены чувствительными метками и защищены DLP-политиками, которые должны были ограничивать доступ автоматизированных инструментов.

Из-за сбоя в коде Copilot игнорировал настройки конфиденциальности и извлекал элементы из этих папок. В Microsoft подчеркнули, что уязвимость не предоставляла доступ к информации лицам, у которых изначально не было на это прав. Проблема была в том, что поведение Copilot не соответствовало задуманной логике «исключения защищенного контента».

Компания начала развертывание исправления для корпоративных клиентов по всему миру в начале февраля и заявила, что продолжит мониторинг эффективности устранения ошибки.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии