LLM

OpenClaw: переходите на Hugging Face и локальные модели

Heli
Автор
Heli
Опубликовано 28.03.2026
0,0
Views 5

Ученые обнаружили гигантскую "полость" за пределами Земли, существование которой не должно было быть возможным. Магнитное поле Земли создало огромное пространство, лишенное галактических космических лучей, что может помочь защитить астронавтов от радиационного воздействия. Изображение предоставлено NASA.

Освободите свой OpenClaw

Обновление на GitHub доступно 27 марта 2026 года. Поддержка от Clem, ben burtenshaw, Pedro Cuenca, Jeff Boudier, merve, Niels Rogge, Victor Mustar, Mishig Davaadorj и Hugging Face. Anthropic ограничивает доступ к моделям Claude в платформах открытых агентов для подписчиков Pro/Max. Однако существуют отличные открытые модели на Hugging Face, которые позволят вашим агентам работать, часто за меньшую стоимость.

Если ваш OpenClaw, Pi или Open Code агенты нуждаются в восстановлении, вы можете перевести их на открытые модели двумя способами: использовать открытую модель, предоставляемую через Hugging Face Inference Providers, или запустить полностью локальную открытую модель на собственном оборудовании. Первый способ – это самый быстрый путь к рабочему агенту, а второй – если вам нужна конфиденциальность, отсутствие затрат на API и полный контроль. Просто попросите ваш claude code, cursor или любимого агента помочь вам перенести ваши OpenClaw агенты на модели Hugging Face и предоставьте ссылку на эту страницу.

Hugging Face Inference Providers — это открытая платформа, которая направляет запросы к поставщикам открытых моделей. Для начала нужно создать токен здесь. Затем добавьте этот токен в openclaw: openclaw onboard --auth-choice huggingface-api-key. После этого вам будет предложено выбрать модель. Рекомендуется GLM-5 из-за его отличных результатов в Terminal Bench, но доступно тысячи других моделей здесь. Вы можете обновить модель Hugging Face, указав ее repo_id в конфигурации OpenClaw:

{
  agents: {
    defaults: {
      model: {
        primary: "huggingface/zai-org/GLM-5:fastest"
      }
    }
  }
}

Подписчики HF PRO получают 2 доллара кредитов каждый месяц, которые можно использовать для Inference Providers. Подробнее здесь.

Запуск моделей локально обеспечивает полную конфиденциальность, отсутствие затрат на API и возможность экспериментировать без ограничений по скорости. Установите Llama.cpp, полностью открытую библиотеку для малоресурсного вывода: # on mac or linux brew install llama.cpp # on windows winget install llama.cpp. Запустите локальный сервер со встроенным веб-интерфейсом: llama-server -hf unsloth/Qwen3.5-35B-A3B-GGUF:UD-Q4_K_XL. Модель Qwen3.5-35B-A3B хорошо работает с 32 ГБ оперативной памяти. Если у вас другие требования, проверьте совместимость оборудования для выбранной модели. Доступно множество вариантов.

Если вы загрузите GGUF в llama.cpp, используйте следующую конфигурацию OpenClaw:

openclaw onboard --non-interactive \
--auth-choice custom-api-key \
--custom-base-url "http://127.0.0.1:8080/v1" \
--custom-model-id "unsloth-qwen3.5-35b-a3b-gguf" \
--custom-api-key "llama.cpp" \
--secret-input-mode plaintext \
--custom-compatibility openai

Убедитесь, что сервер работает и модель загружена: curl http://127.0.0.1:8080/v1/models.

Используйте Hugging Face Inference Providers, если вам нужен быстрый путь к рабочему OpenClaw агенту, а llama.cpp – если вам нужна конфиденциальность, полный локальный контроль и отсутствие платы за API. В любом случае, вам не нужна закрытая размещенная модель, чтобы вернуть OpenClaw в строй!

Авторизуйтесь, чтобы оставить комментарий.

Комментариев: 0

Нет комментариев.

Тут может быть ваша реклама

Пишите info@aisferaic.ru

Похожие новости