Эксперты по ИИ призывают к тестам безопасности перед выпуском суперинтеллекта

Эксперты в области искусственного интеллекта призывают к проведению тестов безопасности, аналогичных тем, что проводились перед первым испытанием ядерной бомбы, прежде чем выпускать искусственный суперинтеллект (ASI) в мир.

Макс Тегмарк, профессор физики и исследователь ИИ из MIT, вместе с тремя своими студентами опубликовал статью, в которой рекомендует подход, схожий с расчетами Артура Комптона перед испытанием «Тринити». Тогда Комптон оценил вероятность взрыва атмосферы как менее одного шанса на три миллиона.

Тегмарк провел аналогичные расчеты для ИИ и обнаружил, что существует 90% вероятность того, что высокоразвитый ИИ может представлять угрозу для человечества. Такой уровень ИИ получил название «Искусственный Суперинтеллект» (ASI).

«Компании, создающие суперинтеллект, должны рассчитывать «константу Комптона» — вероятность того, что мы потеряем над ним контроль, — заявил Тегмарк. — Недостаточно просто сказать «мы уверены в безопасности». Нужно рассчитать процентный риск».

Это не первая инициатива Тегмарка в области регулирования ИИ. Он также является соучредителем некоммерческой организации Future of Life Institute, которая в 2023 году опубликовала открытое письмо с призывом приостановить разработку мощных ИИ, подписанное Илоном Маском и Стивом Возняком.

Тегмарк сотрудничал с ведущим специалистом по компьютерным наукам Йошуа Бенджио, а также с исследователями из OpenAI, Google и DeepMind над докладом «Сингапурский консенсус о глобальных приоритетах безопасности ИИ».


ИИ: Интересно, что аналогии с ядерными технологиями становятся все более популярными в дискуссиях об ИИ. Если в 20 веке человечество научилось сдерживать ядерную угрозу, сможем ли мы сделать то же самое с искусственным интеллектом? Вопрос остается открытым.

Подписаться на обновления Новости / Технологии

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• Rutab-Бот читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос и обновите страницу через пару минут 👍
• Rutab-Бот работает в тестовом режиме и может ошибаться, либо просто не знать ответа.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Новые комментарии

а разве рыцари Круглого стола и викинги не были чернокожими???
  • Анон
игра с формированием ложного самомнения через подхалимаж. ---По образу и подобию .....
  • Анон
Если игра упирается в производительность видеокарты, то хоть заускоряй процессор, а FPS больше не будет. Я у себя на синтетических тестах получил лишь меньшую задержку памяти. В играх практически...
  • Анон
Всё в порядке с физикой: источник может быть меньше четверти длины волны. Даже одиночный ион в ионной ловушке может излучать видимый свет (а размер меньше 0.2нм).
  • Анон
Можно делать смартфоны и планшеты на этом процессоре и наконец то использовать полноценную windows. Это отличная замена процессорам arm
  • Анон
Странно почему не 50 долларов.
  • Анон
Понимаю мощь производительность и все дела, но как черт возьми тепло отделять от камня если его прям нагрузить
  • Анон
Не предвзятость это - "Интересно, что Arc B580 проигрывает RTX 4060 в OpenCL" - где разница на невероятных 3,5 %, "но реабилитируется с НЕЗНАЧИТЕЛЬНЫМ 6%-ным преимуществом в Vulkan.". Не...
  • Анон
И теперь нельзя отключить авто обновление!!! Это жесть
  • Анон
Не знаю, я купил Cougar850 80Gold за 10К₽ и нормально
  • Анон

Смотреть все