Стартап Inception: $50 млн на революцию в AI
Финансовый поток в AI-стартапы сейчас настолько велик, что для исследователей с интересными идеями наступили золотые времена. Если ваша концепция достаточно новаторская, её реализация в качестве независимой компании может оказаться проще, чем в стенах крупных корпоративных лабораторий.
Именно такова история Inception – стартапа, разрабатывающего AI-модели на основе диффузии. Компания привлекла $50 миллионов посевных инвестиций под руководством Menlo Ventures. В раунде также приняли участие Mayfield, Innovation Endeavors, фонд M12 от Microsoft, Snowflake Ventures, Databricks Investment и венчурное подразделение Nvidia – NVentures. Дополнительное ангельское финансирование предоставили Эндрю Ын и Андре Карпати.
Руководит проектом профессор Стэнфорда Стефано Эрмон, чьи исследования сосредоточены на диффузионных моделях. Эти модели генерируют результаты путем итеративного уточнения, а не слово за словом. Подобные технологии лежат в основе таких AI-систем для генерации изображений, как Stable Diffusion, Midjourney и Sora. Эрмон, работавший над этими системами задолго до того, как AI-бум сделал их популярными, теперь использует Inception для применения тех же моделей к более широкому кругу задач.
Вместе с финансированием компания представила новую версию своей модели Mercury, предназначенной для разработки программного обеспечения. Mercury уже интегрирована в ряд инструментов для разработчиков, включая ProxyAI, Buildglare и Kilo Code. Важнее всего то, что, по словам Эрмона, диффузионный подход поможет моделям Inception достичь значительных успехов в двух ключевых показателях: задержке (время отклика) и вычислительных затратах.
«Эти LLM на основе диффузии работают намного быстрее и эффективнее, чем всё, что создают остальные игроки сегодня, – заявляет Эрмон. – Это совершенно другой подход, в котором ещё очень много инновационного потенциала».
Понимание технического отличия требует некоторого контекста. Диффузионные модели структурно отличаются от авторегрессионных моделей, которые доминируют в текстовых AI-сервисах. Авторегрессионные модели, такие как GPT-5 и Gemini, работают последовательно, предсказывая каждое следующее слово или фрагмент слова на основе предыдущего материала. Диффузионные модели, обученные для генерации изображений, используют более холистический подход, поэтапно модифицируя общую структуру ответа до достижения желаемого результата.
Общепринятым мнением является использование авторегрессионных моделей для текстовых приложений, и этот подход оказался чрезвычайно успешным для последних поколений AI-моделей. Однако растущий объем исследований предполагает, что диффузионные модели могут показывать лучшие результаты при обработке больших объёмов текста или управлении ограничениями данных. Как утверждает Эрмон, эти качества становятся реальным преимуществом при работе с крупными кодовыми базами.
Диффузионные модели также обладают большей гибкостью в использовании аппаратного обеспечения, что особенно важно, учитывая растущие требования AI к инфраструктуре. В то время как авторегрессионные модели вынуждены выполнять операции последовательно, диффузионные модели могут обрабатывать множество операций параллельно, что обеспечивает значительно меньшую задержку в сложных задачах.
«Наши тесты показывают производительность свыше 1000 токенов в секунду, что намного выше всего, что возможно с использованием существующих авторегрессионных технологий, – говорит Эрмон, – поскольку наша система построена для параллельной работы. Она создана, чтобы быть очень, очень быстрой».
Комментарии
Комментариев пока нет.