Большинство пользователей не замечают расовую предвзятость в данных для обучения ИИ

/ ТехнологииНовости / Технологии

Исследование учёных из Университета Пенсильвании и Университета штата Орегон показало, что большинство обычных пользователей не способны распознать расовую предвзятость в данных, используемых для обучения систем искусственного интеллекта.

Участникам эксперимента показывали данные, где счастливые лица в основном принадлежали белым людям, а грустные — чернокожим. Большинство не заметило эту предвзятость, пока ИИ не начал демонстрировать необъективные результаты — например, неправильно классифицируя эмоции чернокожих людей.

«В этом исследовании ИИ, похоже, усвоил, что раса является важным критерием для определения, счастливо лицо или грустно», — пояснил старший автор работы Шьям Сундар.

Чернокожие участники чаще замечали проблему, особенно когда данные перепредставляли их собственную группу для изображения негативных эмоций. В трёх экспериментах с 769 участниками большинство указало, что не видит предвзятости.

«Люди склонны доверять ИИ как нейтральному инструменту, даже когда это не так», — добавил Сундар.

Исследователи планируют разработать более эффективные способы информирования пользователей, разработчиков и политиков о предвзятости алгоритмов.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ в комментариях

Вы можете задать вопрос нашему ИИ-помощнику прямо в комментариях к этой статье. Он постарается быстро ответить или уточнить информацию.

⚠️ ИИ может ошибаться — проверяйте важную информацию.


0 комментариев

Оставить комментарий


Все комментарии - Технологии