Sakana AI привлекла $135 млн для разработки японских AI-моделей
Пока американские гиганты вроде Google, OpenAI и Anthropic соревнуются в создании больших языковых моделей, такие стартапы, как Sakana AI, Mistral AI, DeepSeek и AI21 Labs, находят свою нишу, разрабатывая специализированные модели для конкретных регионов, отраслей или с уникальными функциями.
В рамках этой стратегии токийская компания Sakana AI привлекла 20 млрд иен (примерно $135 млн или ~10,8 млн рублей) в рамках раунда финансирования Серии B. Как сообщил TechCrunch генеральный директор Дэвид Ха, это повысило оценку компании до $2,65 млрд после инвестиций против $2,5 млрд до их привлечения.
Основанная в 2023 году бывшими исследователями Google Лионом Джонсом, Реном Ито и Дэвидом Ха, Sakana AI создает доступные генеративные AI-модели, которые эффективно работают с небольшими наборами данных и оптимизированы для японского языка и культуры.
В раунде Серии B участвовали как новые, так и существующие инвесторы, включая японских финансовых гигантов вроде Mitsubishi UFJ Financial Group (MUFG) и международные венчурные компании Khosla Ventures, Macquarie Capital, NEA, Lux Capital и In-Q-Tel (IQT).
«Мы планируем направить новые средства не только на НИОКР, включая разработку AI-моделей, но и на расширение штата инженеров, отделов продаж и дистрибуции в Японии», — заявил Ха. В этом году Sakana укрепила свои позиции в Японии, начав сотрудничество с ведущими местными компаниями, включая Daiwa и MUFG, и разрабатывая AI-решения.
Ха, ранее возглавлявший исследования в Stability AI и работавший в Google и Goldman Sachs, также сообщил, что Sakana планирует в 2026 году расширить корпоративный бизнес за пределы финансового сектора в промышленность, производство и государственный сектор.
В перспективе компания рассматривает возможности в оборонной, разведывательной и производственной отраслях. Двухлетний стартап также заявил, что будет «активно pursuing стратегические инвестиции, партнерства и сделки M&A для долгосрочного глобального роста».
Sakana заявляет, что видит растущий глобальный спрос на суверенные AI-решения, отражающие «национальные культуры и ценности». Японский стартап добавил, что фокусировка усилий НИОКР на AI-продуктах после обучения LLM помогает эффективно создавать продвинутые модели, адаптированные для Японии, идя по пути, отличному от гонки за крупномасштабными AI-моделями.
Этот раунд финансирования состоялся примерно через год после раунда Серии A, в котором компания привлекла около 30 млрд иен ($214 млн или ~17,1 млн рублей) при оценке в $1,5 млрд. По данным PitchBook, по состоянию на март 2025 года Sakana привлекла в общей сложности около $244 млн, так что текущий раунд увеличивает общую сумму до примерно $379 млн.
Интересно, что сооснователь Лион Джонс был одним из авторов знаменитой научной работы «Attention is All You Need», которая в 2017 году представила архитектуру Transformer — основу для большинства современных больших языковых моделей, включая GPT от OpenAI.







0 комментариев