Token-Guard: метод борьбы с галлюцинациями AI
Новый метод Token-Guard призван уменьшить склонность больших языковых моделей (LLM) к “галлюцинациям” – генерации неправдоподобного или противоречивого контента. В отличие от подходов, требующих больших затрат на обучение или поиск информации, Token-Guard работает непосредственно на этапе декодирования.
Суть метода заключается в самопроверке каждого сгенерированного токена. Token-Guard оценивает риски появления “галлюцинаций” в скрытом пространстве и динамически корректирует ошибки с помощью отсечения и повторной генерации. Такой подход позволяет выявлять и исправлять проблемные фрагменты на ранних стадиях.
Эксперименты на HALU датасетах показали, что Token-Guard значительно снижает количество “галлюцинаций” и повышает точность генерации. Разработчики утверждают, что их решение масштабируемо и может быть легко интегрировано в существующие LLM. Код проекта находится в открытом доступе.
Авторизуйтесь, чтобы оставить комментарий.
Нет комментариев.