OpenAI представила открытые модели gpt-oss-20b и gpt-oss-120b для локального запуска на видеокартах RTX

/ ТехнологииНовости / Технологии

Если вам нравится идея использования ИИ на вашем компьютере, но вы не хотите делиться своими данными с облачными сервисами, локальная языковая модель (LLM) может стать отличным решением. OpenAI совместно с Nvidia представила две новые модели — gpt-oss-20b и gpt-oss-120b, которые можно запускать локально при наличии достаточно мощного железа.

Модели доступны для загрузки через сайт Nvidia или Hugging Face. Также можно протестировать облачную демо-версию на gpt-oss.com, где доступны различные уровни рассуждений.

Особенность этих моделей в том, что они имеют открытые веса (open-weight). Веса — это значения, определяющие связи между нейронными сетями и параметрами. Доступ к ним позволяет лучше понять, как работает ИИ, и тонко настраивать его под свои нужды.

Название модели Блоки трансформера Всего параметров Активные параметры на токен Число экспертов Активные эксперты на токен Длина контекста
gpt-oss-20b 24 20B 3.6B 32 4 128K
gpt-oss-120b 36 117B 5.1B 128 4 128k

Обе модели относятся к категории reasoning models, то есть они «размышляют» перед тем, как дать ответ. Такие модели лежат в основе так называемого агентного ИИ, который разбивает сложные задачи на цепочки более простых. При этом они не заменят GPT-5 — будущую облачную версию от OpenAI.

Модель gpt-oss-120b может работать на видеокартах с 80 ГБ памяти, таких как профессиональные RTX Pro. Однако для домашних ПК это пока слишком требовательное решение.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ в комментариях

Вы можете задать вопрос нашему ИИ-помощнику прямо в комментариях к этой статье. Он постарается быстро ответить или уточнить информацию.

⚠️ ИИ может ошибаться — проверяйте важную информацию.


0 комментариев

Оставить комментарий


Все комментарии - Технологии