Новости о больших языковых моделях
LLM: архитектура, обучение, сравнение моделей GPT-4, Claude, Gemini, DeepSeek, Llama. Контекстные окна, файн-тюнинг, локальный запуск и RAG.
Heli
27.02.2026
Sparta: New Benchmark for Table-Text QA and Cross-Modal Reasoning
Авторы: Sungho Park, Jueun Kim, Wook-Shin Han.
Abstract
Реальные задачи ответов на вопросы, использующие как таблицы, так и текст (Table-Text QA), требуют от моделей способности рассуждать, используя длинные тексты и …
Heli
27.02.2026
Stateful Agents в Amazon Bedrock на основе OpenAI
Окружение для агентов с сохранением состояния в Amazon Bedrock предоставляет устойчивую оркестровку, память и безопасное выполнение многошаговых рабочих процессов на основе искусственного интеллекта, работающих на OpenAI.
Если поле content пустое …
Heli
27.02.2026
Иерархический планировщик на основе LLM для роботов
Планирование задач для нескольких роботов требует разложения инструкций на естественном языке в исполняемые действия для разнородных групп роботов. Традиционные планировщики, использующие язык определения доменов планирования (PDDL), обеспечивают строгие гарантии, но …
Тут может быть ваша реклама
Пишите info@aisferaic.ru
Heli
27.02.2026
TiMi: Многомодальные Transformer-модели для прогнозирования временных рядов
Прогнозирование временных рядов с использованием нескольких модальностей получило значительное внимание, поскольку обладает потенциалом для предоставления более точных прогнозов, чем традиционные модели, работающие с одной модальностью, за счет использования богатой информации, …
Heli
27.02.2026
LFM2-24B-A2B: Новая архитектура ИИ для периферийных устройств
Гонка в области генеративного ИИ долгое время была игрой в "больше - лучше". Но по мере того, как отрасль достигает пределов энергопотребления и узких мест в памяти, разговор смещается с …
Heli
27.02.2026
Explore-on-Graph: Новая архитектура для рассуждений LLM
Процесс рассуждений больших языковых моделей (LLM) часто страдает от галлюцинаций и отсутствия фактов при решении задач вопрос-ответ. Многообещающим решением является основание ответов LLM на верифицируемых источниках знаний, таких как графы …
Тут может быть ваша реклама
Пишите info@aisferaic.ru
Heli
27.02.2026
Динамическая Гибридная Параллелизация для MLLM
Развитие возможностей работы с длинным контекстом критически важно для мультимодальных больших языковых моделей (MLLM). Однако реальные мультимодальные наборы данных крайне неоднородны. Существующие фреймворки для обучения в основном полагаются на статические …
Heli
27.02.2026
Архитектура запросов и рассуждения LLM: Задача автомойки
Большие языковые модели (LLM) постоянно терпят неудачу при решении так называемой «задачи автомойки» — популярного теста для оценки рассуждений, требующего неявного вывода физических ограничений. Мы провели исследование, направленное на определение …
Heli
27.02.2026
ExpLang: Многоязычное обучение с подкреплением для LLM
Современные большие языковые модели (LLM), прошедшие постобучение с использованием обучения с подкреплением (RL), демонстрируют значительные успехи в решении сложных задач. Однако предыдущие исследования в основном фокусировались на рассуждениях на английском …