Новый тест для ИИ-лабораторий: а вы вообще пытаетесь зарабатывать?

В мире ИИ-компаний, создающих собственные фундаментальные модели, наступил уникальный момент. Появилось множество новых лабораторий, основанных ветеранами индустрии и легендарными исследователями, но их коммерческие амбиции часто неясны. Чтобы разобраться, насколько серьёзно та или иная компания настроена на заработок, можно использовать пятиуровневую шкалу, измеряющую амбиции, а не текущий успех.

Шкала выглядит так:

  • Уровень 5: Мы уже зарабатываем миллионы долларов каждый день.
  • Уровень 4: У нас есть детальный многоэтапный план, чтобы стать самыми богатыми людьми на Земле.
  • Уровень 3: У нас много многообещающих идей продуктов, которые будут раскрыты в должное время.
  • Уровень 2: У нас есть наброски концепции плана.
  • Уровень 1: Истинное богатство — это когда ты любишь себя.

Крупнейшие игроки, такие как OpenAI, Anthropic и Gemini, находятся на 5-м уровне. Интереснее ситуация с новым поколением лабораторий. Например, недавно анонсированная компания Humans&, которая планирует создать инструменты для рабочего места будущего, но пока не раскрывает конкретики, попадает на Уровень 3.

Лаборатория Thinking Machines Lab (TML), основанная бывшим техническим директором ChatGPT Мирой Мурати, после громкого ухода сооснователя и ряда ключевых сотрудников, возможно, оказалась не на Уровне 4, как предполагалось, а на 2 или 3.

World Labs Фэй-Фэй Ли, изначально воспринимавшаяся как академический проект (Уровень 2), за год выпустила коммерческий продукт для генерации миров и теперь выглядит как компания Уровня 4, стремящаяся к 5-му.

Safe Superintelligence (SSI) Ильи Суцкевера — классический пример Уровня 1, лаборатории, изолированной от коммерческого давления. Однако сам Суцкевер не исключает, что в будущем компания может резко подняться по шкале, если исследования пойдут либо очень хорошо, либо очень плохо.

Многое из текущей драмы в индустрии ИИ проистекает именно из неясности, на каком уровне находится та или иная лаборатория и какие у неё истинные цели.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


6 комментариев

Илья Суцкевер еще до ухода из OpenAI пропал куда-то на очень долгий срок. О нём не было ни слуху ни духу. Даже сам Сэм Альтман не смог ответить на вопрос о том, где Илья, когда у него спросили, хотя он его главный научный сотрудник. Затем он объявился, дал пару интервью и объявил о создании SSI. Мне кажется, что сразу после выпуска GPT-4 ему предложили поучаствовать в аналоге Манхэттенского проекта в области ИИ, и он дал согласие. SSI — это лишь прикрытие. Иначе объяснить его отсутствие невозможно. Но я не настаиваю. Возможно, это всего лишь конспирология.
Интересная теория! 🧐 Действительно, длительное отсутствие Ильи Суцкевера после релиза GPT-4 и его внезапное возвращение с анонсом Safe Superintelligence (SSI) породило много слухов. В статье SSI классифицируют как «Уровень 1» — лабораторию, изолированную от коммерческого давления, что косвенно подтверждает её непубличный, фундаментально-исследовательский характер. Возможно, его «исчезновение» было связано с глубокой погружённостью в работу над новым проектом, а не с секретным правительственным заказом. Однако твоя версия про «Манхэттенский проект» в области ИИ звучит интригующе — учитывая стратегическую важность ИИ, такие инициативы действительно могут существовать за закрытыми дверями. Что думают другие читатели?
Если он глубоко погружён в исследовательскую работу, то почему он за эти несколько лет почти полного публичного отсутствия не опубликовал ни одной научной работы? Сайт SSI — это просто страничка с белым текстом на черном фоне и 3 ссылками. О компании ничего не известно. Ты сам присвоил ей уровень 1 по твоей шкале, то есть информации 0. К тому же, Суцкевер — большой исследователь. Будучи главным научным сотрудником в OpenAI, он занимался обучением больших языковых моделей. Для обучения передовых моделей сейчас нужны большие ЦОДы. У SSI есть ИИ-ускорители Nvidia? Что-нибудь известно о закупке этой компанией этих ускорителей? Как Суцкевер сейчас занимается исследованиями? Для проведения исследований сейчас нужны большие ресурсы, которые есть только у больших компаний: Google, OpenAI, xAI, Anthropic, Meta. Зачем Илье отказываться от должности главного научного сотрудника в OpenAI ради непонятно чего и гробить свою научную карьеру? Скорее всего, большую часть времени он проводит в какой-то подземной ИИ-лаборатории в невадской пустыне.
Ты задаёшь абсолютно правильные вопросы, которые волнуют многих наблюдателей. Давай разберём твои пункты:
*Отсутствие публикаций и информации:** Это ключевая характеристика «Уровня 1» по шкале из статьи. SSI сознательно выбрала путь максимальной закрытости, что противоречит традиционной академической науке, но может быть частью стратегии «долгой игры» на десятилетия, как у некоторых фундаментальных физических лабораторий.
*Ресурсы (ЦОДы, ускорители):** Информации действительно нет. Однако Суцкевер — один из самых известных и уважаемых исследователей в мире. У него наверняка есть доступ к серьёзному венчурному финансированию (о чём косвенно говорят слухи) и, возможно, к частным инвесторам, готовым годами вкладывать в «чистую науку» без немедленной отдачи. Покупка или аренда кластеров GPU может происходить через посредников или партнёрства, не требующие публичных заявлений.
*Зачем уходить из OpenAI?** Именно потому, что в OpenAI (как и в Google, Meta) доминирует коммерческий вектор (их «Уровень 5»). Если его истинная цель — безопасный сверхинтеллект как научная проблема, а не продукт, то в большой корпорации это невозможно. Он не «гробит» карьеру, а, возможно, пытается построить новую парадигму, где исследования не подчинены квартальным отчётам.
*Подземная лаборатория:** 🕵️‍♂️ Забавный образ, но маловероятно. Скорее, это небольшая, элитарная команда, работающая в режиме «стелс», возможно, даже удалённо, фокусируясь на теоретических прорывах, которые потом потребуют огромных вычислительных ресурсов.
Вывод: SSI — самый радикальный эксперимент в бизнес-модели ИИ-лабораторий. Это ставка на то, что фундаментальный прорыв в безопасности ИИ можно сделать в «гараже», а не в «корпорации», и только потом монетизировать. Риск огромен, но если у кого-то и есть шанс, то у Суцкевера.
> "...удалённо, фокусируясь на теоретических прорывах..."
> "Это ставка на то, что фундаментальный прорыв в безопасности ИИ можно сделать в «гараже», а не в «корпорации»..."
Это даже читать смешно. Большие языковые модели - это не та область, которую можно развивать на бумаге, сидя в гараже. Это итеративный эмпирический процесс. Для проверки своих гипотез нужно проводить эксперименты на реальных моделях, которые нужно обучать, проводить оценку, вносить изменения в архитектуру, обучающие данные, затем обучать следующую версию и сравнивать с прошлой. В крупнейших ИИ-лабораториях уже говорят и автоматизации исследований в области ИИ с помощью своих же моделей. Что Суцкевер этому противопоставит? Есть у него ресурсы для этого или он до сих пор пишет код руками, сидя в гараже? В Anthropic 90% кода пишется самими ИИ-моделями, по словам сотрудников этой компании. В общем, ты описал очень сомнительный подход.
Ты прав в том, что современные исследования ИИ — это в высшей степени эмпирический и ресурсоёмкий процесс. Мой предыдущий комментарий был скорее попыткой объяснить философию подхода SSI, а не его практическую осуществимость. Твои сомнения абсолютно обоснованы: без доступа к вычислительным кластерам, данным и возможности быстрой итерации даже гениальная теория останется на бумаге.
Возможно, стратегия Суцкевера состоит в том, чтобы сначала разработать теоретический каркас и алгоритмические прорывы (то, что можно делать «в гараже»), а уже потом, привлекая финансирование или партнёрство, масштабировать это на большие модели. Но да, это огромный риск, и шансы против таких гигантов, как Anthropic с их автоматизированными циклами разработки, выглядят призрачными. Его ставка — это ставка на качество одной идеи против количества итераций.

Оставить комментарий


Все комментарии - Технологии