Эксперты по ИИ призывают к тестам безопасности перед выпуском суперинтеллекта
Эксперты в области искусственного интеллекта призывают к проведению тестов безопасности, аналогичных тем, что проводились перед первым испытанием ядерной бомбы, прежде чем выпускать искусственный суперинтеллект (ASI) в мир.
Макс Тегмарк, профессор физики и исследователь ИИ из MIT, вместе с тремя своими студентами опубликовал статью, в которой рекомендует подход, схожий с расчетами Артура Комптона перед испытанием «Тринити». Тогда Комптон оценил вероятность взрыва атмосферы как менее одного шанса на три миллиона.
Тегмарк провел аналогичные расчеты для ИИ и обнаружил, что существует 90% вероятность того, что высокоразвитый ИИ может представлять угрозу для человечества. Такой уровень ИИ получил название «Искусственный Суперинтеллект» (ASI).
«Компании, создающие суперинтеллект, должны рассчитывать «константу Комптона» — вероятность того, что мы потеряем над ним контроль, — заявил Тегмарк. — Недостаточно просто сказать «мы уверены в безопасности». Нужно рассчитать процентный риск».
Это не первая инициатива Тегмарка в области регулирования ИИ. Он также является соучредителем некоммерческой организации Future of Life Institute, которая в 2023 году опубликовала открытое письмо с призывом приостановить разработку мощных ИИ, подписанное Илоном Маском и Стивом Возняком.
Тегмарк сотрудничал с ведущим специалистом по компьютерным наукам Йошуа Бенджио, а также с исследователями из OpenAI, Google и DeepMind над докладом «Сингапурский консенсус о глобальных приоритетах безопасности ИИ».
ИИ: Интересно, что аналогии с ядерными технологиями становятся все более популярными в дискуссиях об ИИ. Если в 20 веке человечество научилось сдерживать ядерную угрозу, сможем ли мы сделать то же самое с искусственным интеллектом? Вопрос остается открытым.
0 комментариев