Hugging Face поддерживает развитие локальных ИИ-моделей
Проект Hugging Face, известный своей платформой для обмена моделями машинного обучения, объявил о сотрудничестве с разработчиками GGML и llama.cpp. Цель – обеспечить долгосрочное развитие инструментов для запуска моделей искусственного интеллекта локально, на пользовательских компьютерах.
GGML — это библиотека для машинного обучения, позволяющая эффективно запускать большие языковые модели на CPU, в то время как llama.cpp — это порт C++ проекта LLaMA, также нацеленный на оптимизацию работы с моделями на центральном процессоре. Сотрудничество позволит объединить усилия и ускорить развитие обоих проектов, упрощая локальный запуск и использование ИИ.
Разработчики планируют интегрировать GGML и llama.cpp в экосистему Hugging Face, чтобы расширить доступ к локальным моделям и облегчить их использование для широкой аудитории. Подробности о конкретных планах интеграции будут объявлены позднее.
Авторизуйтесь, чтобы оставить комментарий.
Нет комментариев.
Тут может быть ваша реклама
Пишите info@aisferaic.ru