Новости о больших языковых моделях

LLM: архитектура, обучение, сравнение моделей GPT-4, Claude, Gemini, DeepSeek, Llama. Контекстные окна, файн-тюнинг, локальный запуск и RAG.

Search

Heli Verified

23.03.2026

LLM
Star 0,0
Views 69

Gitagent: docker для ai-агентов, решающий проблему фрагментации и ещё 10 новости

Gitagent: docker для ai-агентов, решающий проблему фрагментации

Представляем GitAgent: Docker для AI-агентов, который, наконец, решает проблему фрагментации между LangChain, AutoGen и Claude Code.

GitAgent — это инструмент, который позволяет создавать, …

Heli Verified

22.03.2026

LLM
Star 0,0
Views 45

gemma 2b и gemma 7b: новые открытые модели

Следующий этап открытых моделей

Мы рады объявить о следующем этапе развития открытых моделей. Начиная с сегодняшнего дня, мы открываем веса и код для семейств моделей Gemma 2B и Gemma 7B. …

Heli Verified

22.03.2026

LLM
Star 0,0
Views 49

оценка llm в области сверхпроводимости: потенциал и ограничения

Проверка больших языковых моделей (LLM) на вопросах, связанных с исследованиями сверхпроводимости, выявила их способность решать сложные научные задачи, но с некоторыми ограничениями. Исследование, представленное в виде препринта arXiv:2405.07259, оценивало …

Heli Verified

22.03.2026

LLM
Star 0,0
Views 78

Стратегии безопасного развертывания моделей машинного обучения и ещё 13 новости

Стратегии безопасного развертывания моделей машинного обучения

Существует четыре стратегии безопасного развертывания моделей машинного обучения в рабочей среде: A/B-тестирование, Canary-развертывание, Interleaved-развертывание и Shadow-тестирование. Все они направлены на снижение рисков, связанных с …

Heli Verified

21.03.2026

LLM
Star 0,0
Views 50

От проектирования запросов к проектированию концепций

Переход от проектирования запросов к проектированию концепций

Проектирование запросов стало отправной точкой в использовании больших языковых моделей (LLM), где основное внимание уделялось созданию эффективных текстовых запросов для получения желаемых ответов. …

Heli Verified

21.03.2026

LLM
Star 0,0
Views 65

recent advances in ai: llm research updates

BVSIMC: Bayesian Variable Selection-Guided Inductive Matrix Completion

BVSIMC (Bayesian Variable Selection-Guided Inductive Matrix Completion) - это новая байесовская модель, разработанная для выбора переменных из дополнительных данных в процессе поиска лекарств. …

Heli Verified

21.03.2026

LLM
Star 0,0
Views 46

gmt: целевой мультимодальный трансформер для 3d-траекторий

GMT: Целенаправленный мультимодальный трансформер для синтеза траекторий объектов в 3D-сценах

GMT – это мультимодальный трансформер, предназначенный для генерации реалистичных и ориентированных на цель траекторий движения объектов в 3D-средах. Модель использует …

Heli Verified

21.03.2026

LLM
Star 0,0
Views 51

AI News: SkeletonLLM, AgentFactory & Lost Models

Universal Skeleton Understanding via Differentiable Rendering and MLLMs

18 марта 2026 года представлена работа Mengyuan Liu, Ziyi Wang, Peiming Li, Xinshun Wang, Yang Tang и ещё одного автора, посвященная универсальному …

Heli Verified

21.03.2026

LLM
Star 0,0
Views 60

Создание модели встраивания для конкретной области за день

В этой статье описывается, как создать модель встраивания, специфичную для определенной области, менее чем за один день. Модель встраивания преобразует текст в вектор числовых значений, представляющий семантическое значение текста. Такие …

Heli Verified

21.03.2026

LLM
Star 0,0
Views 111

nvidia выпустила nemotron-cascade 2 – moe модель и ещё 9 новости

nvidia выпустила nemotron-cascade 2 – moe модель

NVIDIA выпустила Nemotron-Cascade 2 – открытую модель Mixture of Experts (MoE) с 30 миллиардами параметров, при этом активных параметров – 3 миллиарда. Разработчики …

Heli Verified

19.03.2026

LLM
Star 0,0
Views 59

представляем speed-bench: бенчмарк для спекулятивного декодирования

Представляем SPEED-Bench, унифицированный и разнообразный бенчмарк для спекулятивного декодирования. Спекулятивное декодирование — это многообещающая техника, призванная ускорить вывод больших языковых моделей, но ее оценка затруднена из-за отсутствия стандартизированных бенчмарков. SPEED-Bench …

Heli Verified

19.03.2026

LLM
Star 0,0
Views 95

7 способов снизить галлюцинации в больших языковых моделях

Существует семь способов снизить галлюцинации в рабочих больших языковых моделях (LLM). Галлюцинации возникают, когда модель генерирует контент, который не основан на предоставленных входных данных или известных фактах.

Первый способ — …