Искусственный интеллект не понимает, что делает, но угрожает человечеству
Быстрое развитие ИИ рискует подорвать достоинство и права, предупреждает доктор Рандаццо. Без глобального регулирования, ориентированного на человека, человечество рискует быть сведенным к данным. Фото: Shutterstock
Эпоха искусственного интеллекта (ИИ) изменила наши взаимодействия, но угрожает человеческому достоинству в мировом масштабе, согласно исследованию, проведенному Университетом Чарльза Дарвина (CDU).
Ведущий автор исследования доктор Мария Рандаццо, научный сотрудник Юридической школы CDU, обнаружила, что технология меняет западные правовые и этические ландшафты с беспрецедентной скоростью, но при этом подрывает демократические ценности и углубляет системные предубеждения.
Доктор Рандаццо заявила, что текущее регулирование не уделяет приоритетного внимания основным правам и свободам человека, таким как конфиденциальность, недискриминация, автономия пользователя и права интеллектуальной собственности — в основном из-за неотслеживаемой природы многих алгоритмических моделей.
Назвав эту недостаточную прозрачность «проблемой черного ящика», доктор Рандаццо пояснила, что решения, принимаемые процессами глубокого или машинного обучения, невозможно отследить людям, что затрудняет пользователям определение того, нарушила ли модель ИИ их права и достоинство, и почему, а также добиваться правосудия, когда это необходимо.
«Это очень значительная проблема, которая будет только усугубляться без адекватного регулирования», — сказала доктор Рандаццо.
«ИИ не является интеллектуальным в каком-либо человеческом смысле. Это триумф инженерии, а не когнитивного поведения.
«Он не имеет ни малейшего понятия, что делает или почему — нет мыслительного процесса, как это понимает человек, только распознавание образов, лишенное воплощения, памяти, эмпатии или мудрости».
В настоящее время три ведущие цифровые державы мира — Соединенные Штаты, Китай и Европейский союз — применяют значительно разные подходы к ИИ, опираясь на рыночно-ориентированную, государственно-ориентированную и человеко-ориентированную модели соответственно.
Доктор Рандаццо заявила, что человеко-ориентированный подход ЕУ является предпочтительным путем для защиты человеческого достоинства, но без глобальной приверженности этой цели даже этот подход оказывается недостаточным.
«В глобальном масштабе, если мы не привяжем развитие ИИ к тому, что делает нас людьми — нашей способности выбирать, чувствовать, рассуждать с заботой, к эмпатии и состраданию — мы рискуем создать системы, которые обесценивают и упрощают человечество до точек данных, а не улучшают человеческое состояние», — сказала она.
«Человечество не должно рассматриваться как средство для достижения цели».
Статья «Человеческое достоинство в эпоху искусственного интеллекта: обзор правовых вопросов и регуляторных режимов» была опубликована в Australian Journal of Human Rights.
Эта работа является первой в трилогии, которую доктор Рандаццо подготовит по данной теме.
Источники:
sciencedaily.com
0 комментариев