LLM

Как обучать LLM локально через федеративное обучение с LoRA

Heli
Автор
Heli
Опубликовано 10.02.2026
0,0
Views 24

Как обучать большие языковые модели локально без сбора данных в центре

В руководстве показано, как провести федеративное дообучение большой языковой модели с помощью LoRA, не объединяя приватные тексты в одном месте. Каждый из трёх виртуальных клиентов (как будто от разных организаций) дообучает общий базовый модель локально на своих данных, обмениваясь только легковесными параметрами адаптера LoRA.

Используется библиотека Flower для симуляции федеративного обучения и PEFT — для эффективного дообучения. Данные остаются распределёнными: клиенты используют внутренние заметки (например, про политики безопасности, риски и логистику), обучаются только на локальных копиях, а сервер агрегирует только веса LoRA. Поддерживается как GPU, так и CPU, при необходимости применяется 4-битная квантованная загрузка.

federated learning llm

Авторизуйтесь, чтобы оставить комментарий.

Комментариев: 0

Нет комментариев.

Тут может быть ваша реклама

Пишите info@aisferaic.ru

Похожие новости