Искусственный интеллект выявил гендерные стереотипы в австралийских судах по семейным делам
Исследователи из Университета Нового Южного Уэльса (UNSW) использовали искусственный интеллект для анализа более 2500 судебных решений по опеке и воспитанию детей, вынесенных в австралийских семейных судах с 2001 по 2021 год. Изучив 4330 документов, они обнаружили системные гендерные предубеждения в формулировках судей.
Согласно исследованию, опубликованному в PLOS One, судьи неосознанно воспроизводят стереотипы: матерей рассматривают в первую очередь как caregivers (лиц, осуществляющих уход), а отцов оценивают по их способности обеспечивать семью финансово. При этом даже минимальное участие отцов в уходе за детьми часто получает praise (одобрение), в то время как аналогичные усилия матерей воспринимаются как нечто само собой разумеющееся.
Ведущий автор исследования, доцент Мехера Сан Роке из Школы права, общества и криминологии UNSW, отмечает:
«Мы использовали ИИ, чтобы выявить предубеждения, о которых знали, но которые оставались „скрытыми“ в правовой системе».
Анализ также показал различия в подходах судей разного пола. Женщины-судьи чаще акцентировали внимание на рисках причинения вреда детям и роли отцов в совместном воспитании, а также подробнее рассматривали финансовые вопросы. Мужчины-судьи, напротив, чаще фокусировались на судебных процедурах и соблюдении постановлений суда, особенно в отношении женских сторон.
Профессор Янан Фань, соавтор исследования из Школы математики и статистики UNSW, подчеркивает двойственную роль ИИ:
«Мы знаем, что в ИИ тоже есть предубеждения. Если существующие документы содержат bias (предвзятость), как в этом исследовании, то ИИ будет perpetuating (воспроизводить) эту предвзятость».
Исследователи планируют использовать аналогичные методы для анализа того, как в судебных решениях описывается насилие в семье, поскольку предварительные данные указывают на тенденцию к его преуменьшению.
0 комментариев