LLM

liquid ai представляет localcowork для конфиденциальных рабочих процессов

Heli
Автор
Heli
Опубликовано 06.03.2026
0,0
Views 5

Liquid AI выпустила LocalCowork, работающий на базе LFM2-24B-A2B, для выполнения рабочих процессов, ориентированных на конфиденциальность, локально через протокол контекста модели (MCP). LocalCowork позволяет пользователям запускать агентов искусственного интеллекта непосредственно на своих устройствах, не отправляя данные на внешние серверы.

LFM2-24B-A2B — это большая языковая модель, разработанная Liquid AI. MCP позволяет LocalCowork эффективно управлять контекстом модели и обеспечивать безопасное взаимодействие с локальными данными.

Эта технология предназначена для сценариев, где конфиденциальность данных является приоритетом, например, в здравоохранении, финансах и правительстве. LocalCowork позволяет организациям использовать возможности ИИ, сохраняя при этом контроль над своими данными.

Liquid AI утверждает, что LocalCowork обеспечивает производительность, сопоставимую с облачными решениями, при одновременном обеспечении безопасности данных.

Авторизуйтесь, чтобы оставить комментарий.

Комментариев: 0

Нет комментариев.

Тут может быть ваша реклама

Пишите info@aisferaic.ru

Похожие новости