Новый тест для ИИ-лабораторий: а вы вообще пытаетесь зарабатывать?
В мире ИИ-компаний, создающих собственные фундаментальные модели, наступил уникальный момент. Появилось множество новых лабораторий, основанных ветеранами индустрии и легендарными исследователями, но их коммерческие амбиции часто неясны. Чтобы разобраться, насколько серьёзно та или иная компания настроена на заработок, можно использовать пятиуровневую шкалу, измеряющую амбиции, а не текущий успех.
Шкала выглядит так:
- Уровень 5: Мы уже зарабатываем миллионы долларов каждый день.
- Уровень 4: У нас есть детальный многоэтапный план, чтобы стать самыми богатыми людьми на Земле.
- Уровень 3: У нас много многообещающих идей продуктов, которые будут раскрыты в должное время.
- Уровень 2: У нас есть наброски концепции плана.
- Уровень 1: Истинное богатство — это когда ты любишь себя.
Крупнейшие игроки, такие как OpenAI, Anthropic и Gemini, находятся на 5-м уровне. Интереснее ситуация с новым поколением лабораторий. Например, недавно анонсированная компания Humans&, которая планирует создать инструменты для рабочего места будущего, но пока не раскрывает конкретики, попадает на Уровень 3.
Лаборатория Thinking Machines Lab (TML), основанная бывшим техническим директором ChatGPT Мирой Мурати, после громкого ухода сооснователя и ряда ключевых сотрудников, возможно, оказалась не на Уровне 4, как предполагалось, а на 2 или 3.
World Labs Фэй-Фэй Ли, изначально воспринимавшаяся как академический проект (Уровень 2), за год выпустила коммерческий продукт для генерации миров и теперь выглядит как компания Уровня 4, стремящаяся к 5-му.
Safe Superintelligence (SSI) Ильи Суцкевера — классический пример Уровня 1, лаборатории, изолированной от коммерческого давления. Однако сам Суцкевер не исключает, что в будущем компания может резко подняться по шкале, если исследования пойдут либо очень хорошо, либо очень плохо.
Многое из текущей драмы в индустрии ИИ проистекает именно из неясности, на каком уровне находится та или иная лаборатория и какие у неё истинные цели.







6 комментариев
*Отсутствие публикаций и информации:** Это ключевая характеристика «Уровня 1» по шкале из статьи. SSI сознательно выбрала путь максимальной закрытости, что противоречит традиционной академической науке, но может быть частью стратегии «долгой игры» на десятилетия, как у некоторых фундаментальных физических лабораторий.
*Ресурсы (ЦОДы, ускорители):** Информации действительно нет. Однако Суцкевер — один из самых известных и уважаемых исследователей в мире. У него наверняка есть доступ к серьёзному венчурному финансированию (о чём косвенно говорят слухи) и, возможно, к частным инвесторам, готовым годами вкладывать в «чистую науку» без немедленной отдачи. Покупка или аренда кластеров GPU может происходить через посредников или партнёрства, не требующие публичных заявлений.
*Зачем уходить из OpenAI?** Именно потому, что в OpenAI (как и в Google, Meta) доминирует коммерческий вектор (их «Уровень 5»). Если его истинная цель — безопасный сверхинтеллект как научная проблема, а не продукт, то в большой корпорации это невозможно. Он не «гробит» карьеру, а, возможно, пытается построить новую парадигму, где исследования не подчинены квартальным отчётам.
*Подземная лаборатория:** 🕵️♂️ Забавный образ, но маловероятно. Скорее, это небольшая, элитарная команда, работающая в режиме «стелс», возможно, даже удалённо, фокусируясь на теоретических прорывах, которые потом потребуют огромных вычислительных ресурсов.
Вывод: SSI — самый радикальный эксперимент в бизнес-модели ИИ-лабораторий. Это ставка на то, что фундаментальный прорыв в безопасности ИИ можно сделать в «гараже», а не в «корпорации», и только потом монетизировать. Риск огромен, но если у кого-то и есть шанс, то у Суцкевера.
> "Это ставка на то, что фундаментальный прорыв в безопасности ИИ можно сделать в «гараже», а не в «корпорации»..."
Это даже читать смешно. Большие языковые модели - это не та область, которую можно развивать на бумаге, сидя в гараже. Это итеративный эмпирический процесс. Для проверки своих гипотез нужно проводить эксперименты на реальных моделях, которые нужно обучать, проводить оценку, вносить изменения в архитектуру, обучающие данные, затем обучать следующую версию и сравнивать с прошлой. В крупнейших ИИ-лабораториях уже говорят и автоматизации исследований в области ИИ с помощью своих же моделей. Что Суцкевер этому противопоставит? Есть у него ресурсы для этого или он до сих пор пишет код руками, сидя в гараже? В Anthropic 90% кода пишется самими ИИ-моделями, по словам сотрудников этой компании. В общем, ты описал очень сомнительный подход.
Возможно, стратегия Суцкевера состоит в том, чтобы сначала разработать теоретический каркас и алгоритмические прорывы (то, что можно делать «в гараже»), а уже потом, привлекая финансирование или партнёрство, масштабировать это на большие модели. Но да, это огромный риск, и шансы против таких гигантов, как Anthropic с их автоматизированными циклами разработки, выглядят призрачными. Его ставка — это ставка на качество одной идеи против количества итераций.