OpenAI переходит с NVIDIA на Google Cloud для снижения затрат

OpenAI начало сотрудничество с Google Cloud, используя процессоры TPU для работы ChatGPT и других своих продуктов. Это стратегическое решение направлено на сокращение огромных вычислительных затрат и снижение зависимости от Microsoft Azure.

Финансовое давление стало основной причиной этого шага — расходы на вычисления составляют 55-60% от 9 миллиардов долларов (≈746 млрд руб.) годовых операционных затрат компании. В 2025 году эта доля может превысить 80%.

Google предлагает услуги AI Compute примерно на 20% дешевле, чем стоимость чипов NVIDIA. Разница заметна в ценах на модели: Gemini 2.5 Pro стоит 10 долларов (≈830 руб.) за миллион токенов, тогда как аналогичная модель OpenAI — 40 долларов (≈3310 руб.).

Этот переход означает конец эксклюзивного партнерства с Microsoft Azure, действовавшего с 2019 года. Ограничение истекло в январе 2025-го, позволив OpenAI диверсифицировать инфраструктуру.

Парадоксально, но Google поддерживает своего главного конкурента в сфере ИИ, одновременно ограничивая доступ к самым передовым чипам TPU, чтобы сохранить конкурентное преимущество.

OpenAI также расширяет сотрудничество с Oracle и CoreWeave, уменьшая зависимость от единственного поставщика и готовясь к растущим энергетическим потребностям сектора ИИ.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.

Топ дня 🌶️


0 комментариев

Оставить комментарий


Все комментарии - Технологии