Суперкомпьютер xAI Colossus с 100 тыс. графических процессоров H100 вышел в сеть

/ ТехнологииНовости / Технологии

X (ранее Twitter) Илона Маска вывел самую мощную в мире систему обучения в онлайн. Суперкомпьютер Colossus использует до 100 000 графических процессоров Nvidia H100 для обучения и собирается расшириться еще на 50 000 графических процессоров Nvidia H100 и H200 в ближайшие месяцы.

«В эти выходные команда xAI запустила наш учебный кластер Colossus 100K H100», — написал Илон Маск в посте X. «От начала до конца все было сделано за 122 дня. Colossus — самая мощная система обучения ИИ

Thumbnail: Искусственный интеллектИску́сственный интелле́кт (ИИ; англ. artificial intelligence, AI) — свойство искусственных интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека (не следует путать с искусственным сознанием); наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ. Искусственный интеллект связан со сходной задачей использования компьютеров для понимания человеческого интеллекта, но не обязательно ограничивается биологически правдоподобными методами. Существующие на сегодня интеллектуальные системы имеют довольно узкие области применения. Википедия

Читайте также:Министерство юстиции США вызвало Nvidia в рамках антимонопольного расследования в сфере ИИMicrosoft добавит в Windows 11 функцию сканирования ИИ аудио- и видеофайлов«ИИ придет ко всем нам»: Дженнифер Хейл критикует технологии на фоне игровых забастовокИИ создает Doom на собственном игровом движкеИИ как игровой движок? Интригующий эксперимент исследователей Google возвращается в Doom

в мире. Более того, через несколько месяцев она удвоится в размерах до 200K (50K H200s)».

По словам Майкла Делла, главы высокотехнологичного гиганта, Dell быстро разработала и собрала систему Colossus. Это подчеркивает, что производитель серверов накопил значительный опыт развертывания серверов ИИ за последние несколько лет бума ИИ.

Илон Маск и его компании в последнее время были заняты объявлениями, связанными с суперкомпьютерами. В конце августа Tesla

Thumbnail: TeslaTesla (читается Тэ́сла, ранее Tesla Motors) — американская компания, производитель электромобилей и (через свой филиал SolarCity) решений для хранения электрической энергии. Компания была основана в июле 2003 года Мартином Эберхардом и Марком Тарпеннингом, но сама компания считает Илона Маска, Джеффри Брайана Штробеля и Иэна Райта почти её сооснователями. Названа в честь всемирно известного электротехника и физика Николы Теслы. Википедия

Читайте также:Fortnite и Rocket League добавят Tesla Cybertruck на этой неделеБывший директор Tesla AI воспроизводит GPT-2 за 24 часа всего за 672 доллараRapidus рассчитывает, что Apple и Microsoft станут её клиентамиРоботы Tesla Optimus умеют укладывать аккумуляторные ячейки в контейнерПодробная информация о гигантском процессоре Tesla Dojo была раскрыта на мероприятии

анонсировала свой кластер Cortex AI с 50 000 графических процессоров Nvidia H100 и 20 000 чипов Tesla Dojo AI размером с пластину. Еще до этого, в конце июля, X начал обучение ИИ на суперкластере Memphis, состоящем из 100 000 графических процессоров H100 с жидкостным охлаждением. Этот суперкомпьютер должен потреблять не менее 150 МВт электроэнергии, поскольку 100 000 графических процессоров H100 потребляют около 70 МВт.

Хотя все эти кластеры формально функционируют и даже обучают модели ИИ, совершенно неясно, сколько из них на самом деле сейчас в сети. Во-первых, требуется некоторое время для отладки и оптимизации настроек этих суперкластеров. Во-вторых, X необходимо обеспечить им достаточное питание, и хотя компания Илона Маска использовала 14 дизельных генераторов для питания своего суперкомпьютера Memphis, их все равно было недостаточно для питания всех 100 000 графических процессоров H100.

Обучение xAI большой языковой модели Grok версии 2 (LLM) потребовало до 20 000 графических процессоров Nvidia H100, и Маск предсказал, что будущим версиям, таким как Grok 3, потребуется еще больше ресурсов, потенциально около 100 000 процессоров Nvidia H100 для обучения. Для этого xAI нужны ее огромные центры обработки данных для обучения Grok 3 и последующего выполнения вывода на этой модели.

Источник: Tomshardware.com

Подписаться на обновления Новости / Технологии

0 комментариев

Оставить комментарий


Новые комментарии

Указан неверный диаметр вентиляторов, не 80 мм, а 100 мм. И чип не 103, а 102.
  • Анон
С прошлым обновлением как раз и появилась эта ошибка. А новое как и написано не дают скачать.
  • Анон
При включении 3D Turbo Mode у вас максимум будет доступно 8 ядер и 8 потоков всего. т.е. если у вас 16 ядерный на 32 потока то будет всего 8 ядер и 8 потоков! Странная оптимизация!
  • Анон
После скачивания вышел синий экран СУПЕР!
  • Анон
требуется указать магазин и purchase date без этого не регистрирует
  • Анон
Россия на них клала❤❤❤❤, будет называться Ладушка 2.0 )))
  • Анон
ДА у меня тоже неработает уже все Вы не знаете каким способом вернуть все обратно СПАСИ
  • Анон
Хаетв Рустам Базарвич Хаетв
  • Анон
Очень довольна приложением. Пользуюсь сама и рекомендую другим.
16 способ - Ноутбук HP ProBook 4740s автоматически установлена камера HP HD Webcam [Fixed] при этом онлайн из браузера подключается камера к веб страницам, камера работает. С приложениями камера...
  • Анон

Смотреть все