Inception представила модель ИИ с рекордной скоростью обработки данных
В мире искусственного интеллекта появился новый игрок, который обещает перевернуть представление о том, как создаются и работают языковые модели. И самое главное — как они могут работать.
Стартап из Пало-Альто под названием Inception, основанный профессором Стэнфордского университета Стефано Эрмоном, "вышел из тени", представив свою разработку — диффузионную большую языковую модель (DLM). Как сообщает издание TechCrunch, эта технология может стать серьезным прорывом в области ИИ благодаря своей скорости и экономичности по сравнению с традиционными большими языковыми моделями (LLM).

Диффузия вместо трансформеров
Современные генеративные модели ИИ принято делить на две категории: большие языковые модели, построенные на архитектуре трансформеров (например, ChatGPT), и диффузионные модели, которые чаще используются для создания изображений и аудио (как в Midjourney или Sora от OpenAI).
Однако Inception решила объединить лучшее из обоих архитектур. Их DLM использует диффузионный подход для обработки текста, что позволяет генерировать и модифицировать большие объемы данных параллельно, а не последовательно, как это делают традиционные LLM.
По словам Стефано Эрмона, основателя компании, идея возникла еще во время его исследований в Стэнфорде. После многолетних экспериментов и прорыва, описанного в научной статье прошлого года, он решил усовершенствовать технологию, объединившись с двумя своими бывшими студентами — профессором UCLA Адитьей Гровером и профессором Корнеллского университета Владимиром Кулешовым. Результатом стал продукт, который, как утверждает компания, способен работать до 10 раз быстрее и стоить в 10 раз дешевле традиционных моделей.

Технические преимущества DLM
Inception делает ставку на более эффективное использование графических процессоров (GPU), которые обычно применяются для работы ИИ-моделей. "Наши модели используют GPU с максимальной отдачей, что кардинально меняет подход к созданию языковых моделей", — поделился Эрмон в интервью "TechCrunch". Компания также предлагает гибкость в использовании: DLM доступны через API, а также могут быть развернуты локально или на периферийных устройствах.
По данным компании, их "маленькая" модель для кодирования сопоставима по качеству с GPT-4o mini, но работает более чем в 10 раз быстрее. Это делает DLM особенно привлекательной для задач, требующих высокой скорости обработки, таких как реальное время или работа на устройствах с ограниченными ресурсами.
Потенциал и перспективы
Inception уже привлекла внимание крупных клиентов, включая компании из списка Fortune 100, которые ценят снижение задержек и увеличение скорости работы ИИ. Эксперты предполагают, что технология может найти применение в самых разных областях — от автоматизации клиентской поддержки до разработки программного обеспечения и анализа данных в реальном времени.
Однако, несмотря на громкие заявления, независимые тесты и долгосрочные результаты покажет только время. Если обещания Inception подтвердятся, DLM может стать серьезным конкурентом для таких гигантов, как OpenAI и Meta, особенно в нише высокопроизводительных решений.
Как итог, появление DLM от Inception знаменует собой новый этап в развитии языковых моделей. Сочетание скорости, экономичности и гибкости делает эту разработку потенциально революционной. Пока мир ИИ продолжает развиваться, такие инновации напоминают нам, что границы возможного еще далеко не исчерпаны.