Alibaba представляет Qwen 3.5: новые LLM с высокой эффективностью
Alibaba представила новую серию больших языковых моделей Qwen 3.5, делая ставку на архитектурную эффективность и качество данных, а не на простое увеличение размера. Модели Qwen3.5-Flash, Qwen3.5-35B-A3B, Qwen3.5-122B-A10B и Qwen3.5-27B демонстрируют, что можно достичь высокого уровня интеллекта, используя меньше вычислительных ресурсов.
Ключевым достижением стала модель Qwen3.5-35B-A3B, которая превзошла предыдущие версии Qwen, при этом активирует всего 3 миллиарда параметров из 35 доступных. Это стало возможным благодаря гибридной архитектуре с использованием Gated Delta Networks и Gated Attention.
Модель Qwen3.5-Flash оптимизирована для использования в продакшене и обеспечивает низкую задержку. Она поддерживает контекстное окно в 1 миллион токенов и имеет встроенные инструменты для взаимодействия с API и базами данных. Модели Qwen3.5-122B-A10B и Qwen3.5-27B ориентированы на выполнение сложных задач, требующих планирования и логического мышления.
Веса моделей и доступ к API Flash доступны для ознакомления.
Авторизуйтесь, чтобы оставить комментарий.
Нет комментариев.
Тут может быть ваша реклама
Пишите info@aisferaic.ru