Automation Anywhere, EvolutIA Launch Enterprise AI Agents & More
Automation Anywhere, EvolutIA Launch Enterprise AI Agents
Robustness of Agentic AI Systems via Adversarially-Aligned Jacobian Regularization
4 марта 2026 года опубликована работа под номером 2603.04378, авторами которой являются Фуркан Мумку и Ясин Йылмаз. В ней рассматривается устойчивость агентных AI-систем. В работе отмечается, что переход LLM к автономным мультиагентным экосистемам требует надежного обучения minimax, однако оно может быть нестабильным из-за нелинейности политик и экстремальной локальной кривизны. Стандартные методы, ограничивающие глобальные якобианы, оказываются слишком консервативными, подавляя чувствительность во всех направлениях и приводя к большим потерям в надежности. Авторы предлагают Adversarially-Aligned Jacobian Regularization (AAJR) – подход, контролирующий чувствительность строго вдоль направлений адверсарного подъема. Доказано, что AAJR обеспечивает более широкий класс допустимых политик, чем глобальные ограничения, что приводит к уменьшению разрыва в аппроксимации и снижению ухудшения номинальной производительности. Разработаны условия для контроля эффективности сглаживания вдоль траекторий оптимизации и обеспечения внутренней стабильности. Работа предоставляет структурную теорию для надежности агентных систем, отделяющую стабильность minimax от глобальных ограничений на выразительность. Ресурсы доступны на Hugging Face и в формате PDF ArXiv.
RoboCasa365: A Large-Scale Simulation Framework for Training and Benchmarking Generalist Robots
4 марта 2026 года представлена работа номер 2603.04356, авторами которой являются Сепехр Насирияни, Абиррам Маддукури, Юке Чжу и Сорош Насирияни. В ней представлен RoboCasa365 – масштабный симуляционный фреймворк для обучения и оценки обобщающих роботов. Он основан на платформе RoboCasa и включает 365 повседневных задач в 2500 различных кухнях, с более чем 600 часами данных демонстрации от людей и более 1600 часами синтетически сгенерированных данных. RoboCasa365 поддерживает систематическую оценку для различных сценариев, включая мультизадачное обучение, обучение фундаментальных моделей для роботов и непрерывное обучение. Проведены эксперименты с использованием современных методов, проанализировано влияние разнообразия задач, масштаба набора данных и изменений в окружающей среде на обобщение. Результаты дают новые представления о факторах, наиболее сильно влияющих на производительность обобщающих роботов, и предлагают стратегии для дальнейшего прогресса в этой области. Ресурсы доступны на Hugging Face и в формате PDF ArXiv.
Efficient Refusal Ablation in LLM through Optimal Transport
4 марта 2026 года опубликована работа номер 2603.04355, авторами которой являются Джеральдин Нанфак, Юджин Белиловский и Элвис Дохматоб. В ней представлен принципиальный подход, основанный на теории оптимального транспорта, который преобразует распределение вредоносных активаций, чтобы соответствовать безобидным. Комбинирование PCA с закрытым гауссовским оптимальным транспортом обеспечивает эффективные вычисления в многомерных пространствах, сохраняя при этом важную геометрическую структуру. Метод достиг до 11% более высокой успешности атак, чем современные базовые показатели, при сохранении сравнимой плексусности на шести моделях (Llama-2, Llama-3.1, Qwen-2.5; 7B-32B параметров). Отмечено, что селективное вмешательство в слои (применение оптимального транспорта к 1-2 выбранным слоям на глубине 40-60% сети) превосходит полное вмешательство, указывая на то, что механизмы отказа могут быть локализованы. Анализ дает новые сведения о геометрической структуре представлений безопасности и предполагает, что текущие методы выравнивания могут быть уязвимы к распределительным атакам. Ресурсы доступны на Hugging Face и в формате PDF ArXiv.
RANGER: Sparsely-Gated Mixture-of-Experts with Adaptive Retrieval Re-ranking for Pathology Report Generation
4 марта 2026 года представлена работа номер 2603.04348, авторами которой являются Мухаммад Халид Хан Ниази, Иксин Чен, Зию Су и Хикмат Хан. В ней предложен RANGER – разреженно-гейтированный фреймворк Mixture-of-Experts (MoE) с адаптивной переранжировкой поиска для генерации отчетов патологии. Он включает в себя разреженно-гейтированный MoE в декодер, с шумом top-$k$ маршрутизации и регуляризацией загрузки, для динамической специализации экспертов. Также введена адаптивная переранжировка поиска, которая выборочно уточняет извлеченные данные из базы знаний, уменьшая шум и улучшая семантическое выравнивание. Эксперименты на PathText-BRCA показали улучшения по сравнению с существующими подходами по стандартным метрикам генерации языка. Полная модель RANGER достигла BLEU-1 to BLEU-4 scores of 0.4598, 0.3044, 0.2036, and 0.1435, соответственно, с METEOR of 0.1883, и ROUGE-L of 0.3038. Ресурсы доступны на Hugging Face и в формате PDF ArXiv.
Авторизуйтесь, чтобы оставить комментарий.
Нет комментариев.
Тут может быть ваша реклама
Пишите info@aisferaic.ru