Большинство пользователей не замечают расовую предвзятость в данных для обучения ИИ
Исследование учёных из Университета Пенсильвании и Университета штата Орегон показало, что большинство обычных пользователей не способны распознать расовую предвзятость в данных, используемых для обучения систем искусственного интеллекта.
Участникам эксперимента показывали данные, где счастливые лица в основном принадлежали белым людям, а грустные — чернокожим. Большинство не заметило эту предвзятость, пока ИИ не начал демонстрировать необъективные результаты — например, неправильно классифицируя эмоции чернокожих людей.
«В этом исследовании ИИ, похоже, усвоил, что раса является важным критерием для определения, счастливо лицо или грустно», — пояснил старший автор работы Шьям Сундар.
Чернокожие участники чаще замечали проблему, особенно когда данные перепредставляли их собственную группу для изображения негативных эмоций. В трёх экспериментах с 769 участниками большинство указало, что не видит предвзятости.
«Люди склонны доверять ИИ как нейтральному инструменту, даже когда это не так», — добавил Сундар.
Исследователи планируют разработать более эффективные способы информирования пользователей, разработчиков и политиков о предвзятости алгоритмов.
0 комментариев