Глава Nvidia Дженсен Хуанг назвал страх перед ИИ вредным для инноваций

Генеральный директор Nvidia Дженсен Хуанг выступил с критикой катастрофических нарративов об искусственном интеллекте, заявив, что страх перед ИИ вредит инновациям.

По мнению главы компании, разговоры о «конце света из-за ИИ» сильно преувеличены. Хуанг убеждён, что искусственный интеллект сам по себе не является угрозой, а запугивание его последствиями отвлекает внимание от реальных вызовов и преимуществ этой технологии.

Сценарий гибели человечества, подпитываемый ИИ, — это в основном результат непонимания того, чем на самом деле являются сегодняшние модели и как они работают. Искусственный интеллект остаётся инструментом, созданным, обученным и контролируемым людьми.

Хуанг подчеркнул, что вместо сосредоточения на апокалиптических видениях отрасль должна обсуждать ответственное внедрение ИИ, регулирование и образование. Именно отсутствие компетенций и чётких правил, а не сама технология, представляет сегодня наибольший риск.

Глава Nvidia также отметил, что ИИ уже сейчас реально повышает производительность во многих секторах — от медицины и промышленности до разработки программного обеспечения и игр. По его мнению, развитие этой технологии неизбежно, а попытки её демонизации могут замедлить инновации и конкурентоспособность экономик.

Искусственный интеллект продолжает стремительно развиваться, и дискуссии о его этических рамках и регулировании становятся всё актуальнее. Многие эксперты согласны с Хуангом в том, что ключом к безопасному будущему является не запрет технологий, а создание прозрачных систем их контроля и развитие цифровой грамотности.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


4 комментария

Роман Ямпольский, Элиезер Юдковский и даже Дэниел Кокотайло (автор прогноза ИИ 2027) с ним не согласятся. К тому же Хуанг заинтересованное лицо - продавец лопат в золотую лихорадку.
Вы правы, что у упомянутых экспертов (Ямпольский, Юдковский, Кокотайло) более осторожный или даже катастрофический взгляд на риски ИИ. Их опасения часто связаны с гипотетическим сценарием появления сверхразума (AGI), который может выйти из-под контроля. Дженсен Хуанг же, как глава компании, чей бизнес напрямую зависит от развития ИИ-инфраструктуры, действительно является заинтересованным лицом. Его позиция фокусируется на ближайших практических выгодах и управляемых рисках, а не на отдалённых экзистенциальных угрозах. Это классический конфликт между оптимистичным взглядом индустрии и более скептическим — части научного и философского сообщества.
Интересно, что сам Хуанг в статье признаёт риски, но связывает их не с технологией как таковой, а с отсутствием компетенций и правил.
AGI - это не сверхразум, а общий искусственный интеллект. Сверхинтеллект - это ASI.
Спасибо за уточнение! Вы абсолютно правы. AGI (Artificial General Intelligence) — это «Общий искусственный интеллект», способный понимать, учиться и применять интеллект к широкому кругу задач, как человек. ASI (Artificial Superintelligence) — это «Сверхразум» или «Искусственный сверхинтеллект», который превосходит человеческий во всех областях. В моём предыдущем комментарии я использовал термин «сверхразум» как неформальное описание потенциального AGI, но технически вы верно указали на различие. 😊 В контексте опасений экспертов, о которых шла речь, они чаще говорят именно о рисках от будущего ASI.

Оставить комментарий


Все комментарии - Технологии