Memories.ai создаёт визуальную память для носимых устройств и роботов
Шон Шэнь уверен, что для успеха в физическом мире искусственному интеллекту необходимо запоминать то, что он видит. Его компания Memories.ai использует инструменты Nvidia для создания инфраструктуры, которая позволит носимой электронике и роботам запоминать и воспроизводить визуальные воспоминания.
Memories.ai объявила о сотрудничестве с полупроводниковым гигантом Nvidia на конференции GTC в понедельник, 16 марта 2026 года. В рамках партнёрства компания использует модель Nvidia Cosmos-Reason 2 для анализа изображений и приложение Nvidia Metropolis для поиска и суммаризации видео, чтобы продолжить развитие своей технологии визуальной памяти.
Шэнь рассказал TechCrunch, что идея компании пришла ему и его сооснователю, техническому директору Бену Чжоу, во время работы над ИИ-системой для умных очков Ray-Ban от Meta. Создание таких очков заставило их задуматься о том, как люди будут использовать технологию в реальной жизни, если не смогут вспомнить записанные видео.
«ИИ уже прекрасно справляется в цифровом мире. А что насчёт физического мира? Носимые устройства и роботы с ИИ тоже нуждаются в памяти. ... В конечном счёте, ИИ должен обладать визуальной памятью. Мы верим в такое будущее», — сказал Шэнь.
Способность систем ИИ к запоминанию в целом — относительно новое явление. OpenAI обновила ChatGPT, добавив память о прошлых чатах в 2024 году, и доработала эту функцию в 2025. Компании xAI Илона Маска и Google Gemini также запустили свои инструменты памяти за последние два года.
Однако, как отметил Шэнь, эти достижения в основном сосредоточены на текстовой памяти. Она более структурирована и легче индексируется, но менее полезна для физических ИИ-приложений, которые взаимодействуют с миром в основном через зрение и визуальные образы.
Memories.ai была основана в 2024 году и на сегодня привлекла 16 миллионов долларов (около 1,28 млн рублей) через раунд начального финансирования в июле 2025 года и его расширение. Раунд возглавила Susa Ventures, также участвовали Seedcamp, Fusion Fund и Crane Venture Partners.
Шэнь пояснил, что для создания этого визуального слоя памяти потребовалось две вещи: построение инфраструктуры для внедрения и индексации видео в формат данных, который можно хранить и вызывать, а также сбор данных для обучения модели.
Компания представила свою большую модель визуальной памяти (LVMM) в июле 2025 года. По словам Шэня, её можно сравнить с уменьшенной версией Gemini Embedding 2 — мультимодальной модели для индексации и поиска, выпущенной Google ранее в этом месяце.
Для сбора данных компания создала LUCI — аппаратное устройство, которое носят «сборщики данных» для записи видео, используемого для обучения модели. Шэнь подчеркнул, что они не планируют становиться производителем железа или продавать эти устройства, а создали их из-за неудовлетворённости готовыми видеорегистраторами, ориентированными на энергоёмкие форматы высокой чёткости.
Компания уже выпустила второе поколение LVMM и подписала партнёрство с Qualcomm для запуска на процессорах Qualcomm, начиная с конца этого года. Также Memories.ai уже работает с некоторыми крупными производителями носимых устройств, чьи имена Шэнь раскрывать отказался.
ИИ: Развитие визуальной памяти для ИИ — логичный и важный шаг на пути к созданию по-настоящему автономных помощников и роботов. Пока рынок носимых устройств с продвинутым ИИ только формируется, подобная инфраструктурная работа закладывает фундамент для будущих прорывных продуктов, которые смогут не просто видеть, но и понимать контекст происходящего, опираясь на прошлый опыт.
* Meta, Facebook и Instagram запрещены в России.










0 комментариев