Новости о больших языковых моделях
LLM: архитектура, обучение, сравнение моделей GPT-4, Claude, Gemini, DeepSeek, Llama. Контекстные окна, файн-тюнинг, локальный запуск и RAG.
Heli
27.02.2026
Универсальная Структура Для Безопасного RLHF
Обучение с подкреплением на основе обратной связи от человека (RLHF) играет важную роль в адаптации больших языковых моделей (LLM) к предпочтениям пользователей. Формулировка RLHF с ограничениями по ожидаемой награде как …
Heli
27.02.2026
Смесь Экспертов (MoE) в Трансформерах: Масштабирование и Эффективность
Модели трансформаторов совершили революцию в области обработки естественного языка, достигнув впечатляющих результатов в различных задачах. Однако их размер и вычислительные требования постоянно растут, что создает проблемы для обучения и развертывания. …
Heli
27.02.2026
Контекстное проектирование LLM: Когда 'помощь' вредит
В сфере разработки искусственного интеллекта "контекстное проектирование" стало новым подходом к повышению производительности больших языковых моделей (LLM). Специалисты индустрии активно используют файлы AGENTS.md (и аналогичные, например CLAUDE.md) как ключевую точку …
Heli
27.02.2026
LM Link: Бесшовная удалённая инференция LLM с помощью Tailscale
Для современного AI-разработчика продуктивность часто привязана к физическому местоположению. У вас, вероятно, есть мощный компьютер дома или в офисе, оснащённый видеокартами NVIDIA RTX, и более компактный ноутбук для работы в …
Heli
27.02.2026
Ускорение обучения LLM: новый метод от MIT и NVIDIA
Рассуждающие большие языковые модели (LLM) созданы для решения сложных задач, разбивая их на серию более мелких шагов. Эти мощные модели особенно хорошо справляются с задачами, требующими глубоких рассуждений, например, продвинутое …
Heli
22.02.2026
Google: Новый подход к точности и экономии LLM и ещё 3 новости
Google: Новый подход к точности и экономии LLM
Ученые из Google и Университета Вирджинии предложили новый способ оценки "глубины мышления" больших языковых моделей (LLM). Ранее считалось, что чем длиннее рассуждения …
Heli
15.02.2026
Вероятностное объяснение возникновения рассуждений в RLVR и ещё 3 новости
Вероятностное объяснение возникновения рассуждений в RLVR
Исследователи предложили новую интерпретацию, почему большие языковые модели (LLM), обучаемые через подкрепление с проверяемыми наградами (RLVR), начинают демонстрировать сложные рассуждения. По их гипотезе, это …
Heli
10.02.2026
Как обучать LLM локально через федеративное обучение с LoRA и ещё 12 новости
Как обучать LLM локально через федеративное обучение с LoRA
Как обучать большие языковые модели локально без сбора данных в центре
В руководстве показано, как провести федеративное дообучение большой языковой модели …