Алгоритмы рекомендаций могут искажать восприятие реальности и вызывать ложную уверенность

/ НаукаНовости / Наука

Персонализированные алгоритмы могут подталкивать пользователей к выборочным, вводящим в заблуждение путям обучения, которые формируют сильные, но неверные убеждения. Эта схема может незаметно искажать понимание самых разных тем. Автор: AI/ScienceDaily.com

Согласно новому исследованию, персонализированные системы рекомендаций, которые курируют контент на таких платформах, как YouTube, могут также мешать процессу обучения людей. Исследование показало, что когда алгоритм решал, какая информация будет появляться в ходе учебного задания, участники, не имевшие предварительных знаний по теме, как правило, сосредотачивались лишь на небольшой части того, что им показывали.

Поскольку они изучили меньше доступного материала, эти участники часто отвечали на вопросы неправильно в последующих тестах. Несмотря на ошибочность, они выражали высокую уверенность в своих ответах.

Дживон Бах, проводивший эту работу в рамках своей докторской диссертации по психологии в Университете штата Огайо, заявил, что эти результаты вызывают беспокойство.

«Но наше исследование показывает, что даже когда вы ничего не знаете о теме, эти алгоритмы могут немедленно начать формировать предубеждения и привести к искаженному взгляду на реальность», — сказал Бах, ныне работающий постдокторантом в Университете штата Пенсильвания.

Результаты опубликованы в «Journal of Experimental Psychology: General».

Брэндон Тёрнер, соавтор исследования и профессор психологии в Огайо, отметил, что результаты указывают на то, что люди могут быстро брать ограниченную информацию, предоставляемую алгоритмами, и делать широкие, часто безосновательные выводы.

«Люди упускают информацию, когда следуют за алгоритмом, но они думают, что то, что они знают, распространяется и на другие особенности и части среды, которые они никогда не испытывали», — сказал Тёрнер.

Чтобы проиллюстрировать, как может возникать это предубеждение, исследователи описали простой сценарий: человек, который никогда не смотрел фильмы из определенной страны, решает попробовать. Стриминговый сервис по запросу предлагает рекомендации.

Зритель выбирает боевик-триллер, потому что он находится в верхней части списка. Алгоритм затем продвигает больше боевиков-триллеров, которые зритель продолжает выбирать.

«Если целью этого человека, явной или неявной, было на самом деле понять общую картину кинематографа этой страны, алгоритмическая рекомендация в конечном итоге серьезно искажает его понимание», — написали авторы.

Бах и его исследовательская группа изучили эту идею экспериментально с участием 346 онлайн-участников. Чтобы убедиться, что никто не привнес предварительных знаний, исследователи использовали полностью вымышленное учебное задание.

Участники изучали несколько типов кристаллоподобных инопланетян, каждый из которых определялся шестью признаками, варьирующимися в зависимости от категории. Например, одна квадратная часть пришельца могла быть темно-черной у одних типов и бледно-серой у других.

Цель состояла в том, чтобы научиться идентифицировать каждый тип пришельца, не зная, сколько типов существует.

В эксперименте признаки пришельцев были скрыты за серыми рамками. В одном условии участники должны были кликнуть на все признаки, чтобы увидеть полный набор информации для каждого пришельца.

В другом условии участники выбирали, какие признаки исследовать, а алгоритм персонализации выбирал, какие элементы они, вероятно, будут просматривать чаще всего. Этот алгоритм направлял их к неоднократному изучению одних и тех же признаков. Они все еще могли посмотреть любой желаемый признак, но им также разрешалось полностью пропускать другие.

Результаты показали, что те, кем руководил персонализированный алгоритм, просматривали в целом меньше признаков и делали это выборочно. Когда позже их тестировали на новых, никогда не виденных ранее примерах пришельцев, они часто сортировали их неправильно. Тем не менее, участники оставались уверены в своих ответах.

«Они были даже более уверены, когда на самом деле ошибались в своем выборе, чем когда были правы, что вызывает беспокойство, потому что у них было меньше знаний», — сказал Бах.

Тёрнер отметил, что эти выводы имеют реальное значение.

«Если у вас есть маленький ребенок, который искренне пытается узнать о мире, и он взаимодействует с алгоритмами в интернете, которые приоритезируют потребление большего количества контента, что произойдет? Потребление похожего контента часто не совпадает с обучением. Это может вызвать проблемы для пользователей и в конечном итоге для общества», — сказал Тёрнер.

Владимир Слуцкий, профессор психологии в Университете штата Огайо, также был соавтором исследования.

Подписаться на обновления Новости / Наука
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Наука