Один современный AI-графический процессор потребляет до 3,7 МВтч электроэнергии в год
Самые мощные на сегодняшний день новые графические процессоры для центров обработки данных для задач искусственного интеллекта могут потреблять до 700 Вт каждый. При годовом использовании 61% это будет составлять около 3 740 520 Втч или 3,74 МВтч в год на каждый графический процессор, что усиливает опасения по поводу доступности электроэнергии и воздействия на окружающую среду, особенно если мы отдалим масштаб и посмотрим на общее количество графических процессоров, проданных только в прошлом году..
NVIDIA Corporation (NASDAQ: NVDA) — американская компания, один из крупнейших разработчиков графических ускорителей и процессоров, а также наборов системной логики. На рынке продукция компании известна под такими торговыми марками как GeForce, nForce, Quadro, Tesla, ION и Tegra. Компания была основана в 1993 году. По состоянию на август 2006 года в корпорации насчитывалось более 8 тысяч сотрудников, работающих в 40 офисах по всему миру. Википедия
Читайте также:Результаты обучения NVIDIA MLPerfNvidia увеличит число шейдеров в GPU RTX 50В 2023 году Nvidia поставила 3,76 млн графических процессоров для центров обработки данныхСтали известны возможные характеристики линейки графических процессоров NVIDIA GeForce «Blackwell»Дженсен Хуанг подписывает карту PNY RTX 4070 Super Blower
Умножьте это число на общий объем поставок графических процессоров в центрах обработки данных в прошлом году, и вы получите 14 348,63 ГВтч электроэнергии, использованной за год. Для сравнения: средний американский дом потребляет 10 791 кВтч в год, а это означает, что графические процессоры для центров обработки данных, проданные в прошлом году, потребляют такое же количество энергии, которое ежегодно используют 1,3 миллиона домохозяйств. Если мы посмотрим на это на уровне штата, Комиссия по энергетике Калифорнии сообщила, что в 2022 году штат произвел 203 257 ГВтч, а это означает, что графические процессоры центров обработки данных потребляют около 7% годового производства штата.
Однако вы должны помнить, что это всего лишь графические процессоры для центров обработки данных. Данные здесь не включают процессоры, системы охлаждения и другое оборудование, необходимое для правильной работы центров обработки данных. Например, для большинства RTX 4090 рекомендуется блок питания мощностью не менее 850 Вт, а для некоторых требуется 1000 или даже 1200 Вт. Если мы возьмем минимум, то серверы и центры обработки данных, построенные в прошлом году, потребляют более 25 ГВтч в год. Эти цифры даже не включают центры обработки данных 2022 года и старше, а также не учитывают многие другие, которые будут подключены к сети в этом году.
По оценкам отраслевых аналитиков, рынок графических процессоров для центров обработки данных вырастет на 34,6% в годовом исчислении до 2028 года, а это означает, что в ближайшие годы мы, вероятно, увидим больше графических процессоров для центров обработки данных. Кроме того, ожидается, что следующее поколение графических процессоров Nvidia с искусственным интеллектом будет потреблять больше энергии, чем нынешний 700-ваттный H100. Даже если компьютеры центров обработки данных сохранят свое энергопотребление в ближайшие годы (а этого не произойдет), спрос на электроэнергию для центров обработки данных должен увеличиваться пропорционально росту рынка.
Этот беспрецедентный рост числа центров обработки данных вызывает обеспокоенность по поводу нашей энергетической инфраструктуры. Фактически, правительство США уже ведет переговоры с технологическими компаниями об их потребностях в электроэнергии для ИИ, тем более что эти новые центры обработки данных могут оказать неоправданную нагрузку на энергосистему. Основатель Meta Марк Цукерберг даже говорит, что ограниченная мощность будет сдерживать рост ИИ, тем более что Enerdata отметила, что глобальное производство электроэнергии росло только на 2,5% в год за последнее десятилетие.
Тем не менее, технологические компании не закрывают глаза на эту проблему. Microsoft, традиционно занимающаяся программным обеспечением, даже планирует инвестировать в небольшие модульные ядерные реакторы для своих центров обработки данных. Это особенно важно, поскольку компания в партнерстве с OpenAI создала суперкомпьютер искусственного интеллекта стоимостью 100 миллиардов долларов, для которого определенно потребуется тонна энергии.
Рост использования искусственного интеллекта в нашем обществе, основанном на данных, означает, что нам нужно много электроэнергии для удовлетворения наших вычислительных потребностей. Кроме того, мы не должны забывать о других будущих технологиях, которые также требуют много энергии, таких как электромобили. Если мы не найдем способ разработать чипы (и двигатели), которые будут обеспечивать больше энергии, одновременно потребляя меньше энергии, нам, вероятно, придется добавить больше мощностей по производству энергии и модернизировать вспомогательную инфраструктуру, чтобы доставлять ее туда, где это необходимо.
Источник: Tomshardware.com
0 комментариев