recent ai research: minimax, neural ode, matrix product states & sim-to-reality
Taming the Adversary: Stable Minimax Deep Deterministic Policy Gradient via Fractional Objectives
Taming the Adversary: Stable Minimax Deep Deterministic Policy Gradient via Fractional Objectives было представлено 12 марта 2026 года. Авторы: Donghwan Lee и Taeho Lee. В работе предлагается framework MMDDPG для обучения устойчивых к возмущениям политик в задачах непрерывного управления. Обучение сформулировано как минимизация-максимизация между политикой пользователя и политикой адверсарных возмущений. Для стабилизации взаимодействия представлен дробный объектив, балансирующий производительность и величину возмущений. Эксперименты в MuJoCo показали улучшенную устойчивость к внешним силам и изменениям параметров модели. View on Hugging Face Read PDF
Node-RF: Learning Generalized Continuous Space-Time Scene Dynamics with Neural ODE-based NeRFs
Node-RF: Learning Generalized Continuous Space-Time Scene Dynamics with Neural ODE-based NeRFs было представлено 12 марта 2026 года. Авторы: Hiran Sarkar, Liming Kuang, Yordanka Velikova и Benjamin Busam. Node-RF (Neural ODE-based NeRF) решает проблему предсказания динамики сцены из визуальных наблюдений, интегрируя Neural Ordinary Differential Equations (NODEs) с dynamic Neural Radiance Fields (NeRFs). Это обеспечивает непрерывное пространственно-временное представление, обобщающее траектории при постоянной стоимости памяти. Из визуального ввода Node-RF изучает неявное состояние сцены, которое изменяется во времени через ODE-solver. NeRF-based renderer интерпретирует полученные эмбеддинги для синтеза произвольных видов для долгосрочной экстраполяции. Эксперименты показали способность характеризовать абстрактное поведение системы без явной модели. View on Hugging Face Read PDF
Efficient Generative Modeling with Unitary Matrix Product States Using Riemannian Optimization
Efficient Generative Modeling with Unitary Matrix Product States Using Riemannian Optimization было представлено 12 марта 2026 года. Авторы: Haotong Duan, Zhongming Chen и Ngai Wong. В работе систематически изучается использование matrix product states (MPS) для генеративного моделирования. Утверждается, что unitary MPS, благодаря своей простоте и выразительности, улучшает обучение за счет уменьшения неоднозначности при обновлении параметров и повышения эффективности. Для преодоления неэффективности стандартного градиентного обучения MPS, разработан подход на основе Riemannian optimization и алгоритм space-decoupling. Эксперименты на Bars-and-Stripes и EMNIST показали быструю адаптацию к данным и стабильные обновления. View on Hugging Face Read PDF
Sim-to-reality adaptation for Deep Reinforcement Learning applied to an underwater docking application
Sim-to-reality adaptation for Deep Reinforcement Learning applied to an underwater docking application было представлено 12 марта 2026 года. Авторы: Alaaeddine Chaarani, Narcis Palomeras и Pere Ridao. DRL рассматривается как надежная альтернатива традиционным методам управления для автономной подводной стыковки. Stonefish simulator был адаптирован для multiprocessing RL, чтобы ускорить обучение и учесть динамику AUV, модели столкновений и шум датчиков. Используя алгоритм Proximal Policy Optimization (PPO), разработан 6-DoF control policy, обученный в headless-среде с рандомизированными начальными позициями. Эксперименты показали 90% успешность в симуляции, а валидация в физическом тестовом резервуаре подтвердила эффективность sim-to-reality адаптации. View on Hugging Face Read PDF
Авторизуйтесь, чтобы оставить комментарий.
Нет комментариев.
Тут может быть ваша реклама
Пишите info@aisferaic.ru