radar: рассуждение как дискриминация для llm
RADAR: Рассуждение как дискриминация с использованием выровненных представлений для рассуждений на основе графов знаний большими языковыми моделями (LLM).
Представлена новая модель RADAR, предназначенная для улучшения рассуждений на основе графов знаний с использованием больших языковых моделей (LLM). RADAR рассматривает задачу рассуждения как задачу дискриминации, а не генерации. Модель учится различать правильные и неправильные пути в графе знаний.
архитектура и подход
RADAR использует выровненные представления узлов и отношений в графе знаний. Эти представления создаются с помощью LLM и затем используются для обучения дискриминатора. Дискриминатор предсказывает, является ли данный путь в графе знаний правильным или неправильным. Модель RADAR не генерирует ответ, а выбирает лучший путь из предложенных кандидатов. Для создания кандидатов используется метод поиска по графу.
В RADAR предлагается два способа получения выровненных представлений: извлечение признаков и тонкая настройка. В извлечении признаков LLM используется для создания представлений узлов и отношений, которые затем используются для обучения дискриминатора. В тонкой настройке LLM настраивается на задачу рассуждения на основе графа знаний.
результаты экспериментов
RADAR был протестирован на нескольких наборах данных для рассуждения на основе графов знаний. Результаты показали, что RADAR превосходит существующие методы, особенно при работе с большими графами знаний. Улучшение достигается за счет дискриминационного подхода и использования выровненных представлений. Дополнительные материалы, включая код и детали экспериментов, доступны в документе arXiv.
Авторизуйтесь, чтобы оставить комментарий.
Нет комментариев.
Тут может быть ваша реклама
Пишите info@aisferaic.ru