Sakana AI привлекла $135 млн для разработки японских AI-моделей

Пока американские гиганты вроде Google, OpenAI и Anthropic соревнуются в создании больших языковых моделей, такие стартапы, как Sakana AI, Mistral AI, DeepSeek и AI21 Labs, находят свою нишу, разрабатывая специализированные модели для конкретных регионов, отраслей или с уникальными функциями.

В рамках этой стратегии токийская компания Sakana AI привлекла 20 млрд иен (примерно $135 млн или ~10,8 млн рублей) в рамках раунда финансирования Серии B. Как сообщил TechCrunch генеральный директор Дэвид Ха, это повысило оценку компании до $2,65 млрд после инвестиций против $2,5 млрд до их привлечения.

Основанная в 2023 году бывшими исследователями Google Лионом Джонсом, Реном Ито и Дэвидом Ха, Sakana AI создает доступные генеративные AI-модели, которые эффективно работают с небольшими наборами данных и оптимизированы для японского языка и культуры.

В раунде Серии B участвовали как новые, так и существующие инвесторы, включая японских финансовых гигантов вроде Mitsubishi UFJ Financial Group (MUFG) и международные венчурные компании Khosla Ventures, Macquarie Capital, NEA, Lux Capital и In-Q-Tel (IQT).

«Мы планируем направить новые средства не только на НИОКР, включая разработку AI-моделей, но и на расширение штата инженеров, отделов продаж и дистрибуции в Японии», — заявил Ха. В этом году Sakana укрепила свои позиции в Японии, начав сотрудничество с ведущими местными компаниями, включая Daiwa и MUFG, и разрабатывая AI-решения.

Ха, ранее возглавлявший исследования в Stability AI и работавший в Google и Goldman Sachs, также сообщил, что Sakana планирует в 2026 году расширить корпоративный бизнес за пределы финансового сектора в промышленность, производство и государственный сектор.

В перспективе компания рассматривает возможности в оборонной, разведывательной и производственной отраслях. Двухлетний стартап также заявил, что будет «активно pursuing стратегические инвестиции, партнерства и сделки M&A для долгосрочного глобального роста».

Sakana заявляет, что видит растущий глобальный спрос на суверенные AI-решения, отражающие «национальные культуры и ценности». Японский стартап добавил, что фокусировка усилий НИОКР на AI-продуктах после обучения LLM помогает эффективно создавать продвинутые модели, адаптированные для Японии, идя по пути, отличному от гонки за крупномасштабными AI-моделями.

Этот раунд финансирования состоялся примерно через год после раунда Серии A, в котором компания привлекла около 30 млрд иен ($214 млн или ~17,1 млн рублей) при оценке в $1,5 млрд. По данным PitchBook, по состоянию на март 2025 года Sakana привлекла в общей сложности около $244 млн, так что текущий раунд увеличивает общую сумму до примерно $379 млн.

Интересно, что сооснователь Лион Джонс был одним из авторов знаменитой научной работы «Attention is All You Need», которая в 2017 году представила архитектуру Transformer — основу для большинства современных больших языковых моделей, включая GPT от OpenAI.

Подписаться на обновления Новости / Технологии
Зарегистрируйтесь на сайте, чтобы отключить рекламу

ℹ️ Помощь от ИИ

В статье есть ошибки или у вас есть вопрос? Попробуйте спросить нашего ИИ-помощника в комментариях и он постарается помочь!

⚠️ Важно:

• AI Rutab читает ваши комментарии и готов вам помочь.
• Просто задайте вопрос 👍
• ИИ может давать неточные ответы!
• ИИ не скажет «Я не знаю», но вместо этого может дать ошибочный ответ.
• Всегда проверяйте информацию и не полагайтесь на него как на единственный источник.
• К ИИ-помощнику можно обратиться по имени Rutab или Рутаб.


0 комментариев

Оставить комментарий


Все комментарии - Технологии