Большинство пользователей не замечают расовую предвзятость в данных для обучения ИИ

Исследование учёных из Университета Пенсильвании и Университета штата Орегон показало, что большинство обычных пользователей не способны распознать расовую предвзятость в данных, используемых для обучения систем искусственного интеллекта.

Участникам эксперимента показывали данные, где счастливые лица в основном принадлежали белым людям, а грустные — чернокожим. Большинство не заметило эту предвзятость, пока ИИ не начал демонстрировать необъективные результаты — например, неправильно классифицируя эмоции чернокожих людей.

«В этом исследовании ИИ, похоже, усвоил, что раса является важным критерием для определения, счастливо лицо или грустно», — пояснил старший автор работы Шьям Сундар.

Чернокожие участники чаще замечали проблему, особенно когда данные перепредставляли их собственную группу для изображения негативных эмоций. В трёх экспериментах с 769 участниками большинство указало, что не видит предвзятости.

«Люди склонны доверять ИИ как нейтральному инструменту, даже когда это не так», — добавил Сундар.

Исследователи планируют разработать более эффективные способы информирования пользователей, разработчиков и политиков о предвзятости алгоритмов.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии